From 9de2770b85708cedd101087725fd9088eb455d76 Mon Sep 17 00:00:00 2001 From: josh-wong Date: Fri, 26 Sep 2025 05:06:25 +0000 Subject: [PATCH] AUTO: Sync ScalarDB docs in Japanese to docs site repo --- .../current/requirements.mdx | 44 ++++++++--- .../current/scalardb-analytics/_README.mdx | 13 ++-- .../scalardb-analytics/configurations.mdx | 44 ++++++----- .../create-scalardb-analytics-catalog.mdx | 78 ++++++++++--------- .../current/scalardb-analytics/deployment.mdx | 56 ++++++------- .../current/scalardb-analytics/design.mdx | 36 ++++----- .../current/scalardb-analytics/quickstart.mdx | 28 +++---- .../reference-cli-command.mdx | 46 +++++------ .../reference-data-source.mdx | 53 +++++++------ .../run-analytical-queries.mdx | 31 ++------ 10 files changed, 219 insertions(+), 210 deletions(-) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/requirements.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/requirements.mdx index f73ec8fc3..c64da1fb1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/requirements.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/requirements.mdx @@ -537,10 +537,10 @@ ScalarDB Cluster は、本番環境では Kubernetes プラットフォーム上 #### プラットフォーム -- **[Kubernetes](https://kubernetes.io/):** 1.28 - 1.32 - - **[Amazon Elastic Kubernetes Service (EKS)](https://aws.amazon.com/eks/)** - - **[Azure Kubernetes Service (AKS)](https://azure.microsoft.com/en-us/products/kubernetes-service)** -- **[Red Hat OpenShift](https://www.redhat.com/en/technologies/cloud-computing/openshift):** TBD +- **[Kubernetes](https://kubernetes.io/):** 1.30 - 1.33 + - **[Amazon Elastic Kubernetes Service (EKS)](https://aws.amazon.com/jp/eks)** + - **[Azure Kubernetes Service (AKS)](https://azure.microsoft.com/ja-jp/products/kubernetes-service)** +- **[Red Hat OpenShift](https://www.redhat.com/ja/technologies/cloud-computing/openshift):** TBD #### パッケージマネージャー @@ -660,6 +660,31 @@ ScalarDB Analytics は、ScalarDB Core および Cluster によって**管理さ +#### 分析プラットフォーム + +ScalarDB Analytics は、ScalarDB Core および Cluster によって**管理されていない**以下の分析プラットフォーム上で分析クエリを実行できます。 + + + + +| バージョン | Databricks | +| :-------------------------- | :--------- | +| **ScalarDB Analytics 3.16** | ✅ | +| **ScalarDB Analytics 3.15** | ❌ | +| **ScalarDB Analytics 3.14** | ❌ | + + + + +| バージョン | Snowflake | +| :-------------------------- | :-------- | +| **ScalarDB Analytics 3.16** | ✅ | +| **ScalarDB Analytics 3.15** | ❌ | +| **ScalarDB Analytics 3.14** | ❌ | + + + + ### データベース権限要件 ScalarDB Analytics は、基盤となるデータベースで操作を実行するために読み取り権限が必要です。 @@ -668,8 +693,7 @@ ScalarDB Core および Cluster で管理されているデータベースにつ ScalarDB Core および Cluster で**管理されていない**データベースについては、データソースに対する読み取り権限を持つユーザーでデータソースを登録してください。データソースの登録手順については、[カタログの作成](scalardb-analytics/create-scalardb-analytics-catalog.mdx#カタログの作成)を参照してください。 -ScalarDB Analytics サーバーは、そのデータベース内のカタログ情報を管理するための権限も必要です。 -[データベース権限要件](requirements.mdx#データベース権限要件)に従って権限を持つユーザーを作成し、そのユーザーを ScalarDB Analytics サーバー設定に設定してください。 +ScalarDB Analytics サーバーは、そのデータベース内のカタログ情報を管理するための権限も必要です。[データベース権限要件](requirements.mdx#データベース権限要件)に従って権限を持つユーザーを作成し、そのユーザーを ScalarDB Analytics サーバー設定に設定してください。 ### 必要なポート @@ -685,10 +709,10 @@ ScalarDB Analytics のサーバーコンポーネント (ScalarDB Analytics サ #### プラットフォーム -- **[Kubernetes](https://kubernetes.io/):** 1.28 - 1.32 - - **[Amazon Elastic Kubernetes Service (EKS)](https://aws.amazon.com/eks/)** - - **[Azure Kubernetes Service (AKS)](https://azure.microsoft.com/en-us/products/kubernetes-service)** -- **[Red Hat OpenShift](https://www.redhat.com/en/technologies/cloud-computing/openshift):** TBD +- **[Kubernetes](https://kubernetes.io/):** 1.30 - 1.33 + - **[Amazon Elastic Kubernetes Service (EKS)](https://aws.amazon.com/jp/eks)** + - **[Azure Kubernetes Service (AKS)](https://azure.microsoft.com/ja-jp/products/kubernetes-service)** +- **[Red Hat OpenShift](https://www.redhat.com/jp/technologies/cloud-computing/openshift):** TBD #### パッケージマネージャー diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/_README.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/_README.mdx index 83b36f80c..a7706660f 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/_README.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/_README.mdx @@ -27,13 +27,12 @@ import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; ### 主要ドキュメント -- [概要](./overview.mdx) - ScalarDB Analytics のアーキテクチャと機能を理解する -- [ScalarDB Analytics のデプロイ](./deployment.mdx) - Amazon EMR、Databricks、その他のプラットフォームへのデプロイ -- [分析クエリの実行](./run-analytical-queries.mdx) - 複数のデータベースにまたがるクエリの実行 -- [管理ガイド](./administration.mdx) - カタログとデータソースの管理 -- [設定リファレンス](./configuration.mdx) - Spark とデータソースの設定 +- [パブリッククラウド環境への ScalarDB Analytics のデプロイ](./deployment.mdx) - Amazon EMR、Databricks、その他のプラットフォームへのデプロイ +- [ScalarDB Analytics カタログの作成](./create-scalardb-analytics-catalog.mdx) - カタログの作成とデータソースの追加 +- [ScalarDB Analytics を通じた分析クエリの実行](./run-analytical-queries.mdx) - 複数のデータベースにまたがるクエリの実行 +- [ScalarDB Analytics の設定](./configurations.mdx) - Spark とデータソースの設定 ### 技術詳細 -- [設計ドキュメント](./design.mdx) - 技術アーキテクチャの詳細 -- [バージョン互換性](./run-analytical-queries.mdx#バージョン互換性) - サポートされている Spark と Scala のバージョン +- [ScalarDB Analytics の設計](./design.mdx) - 技術アーキテクチャの詳細 +- [Spark](../requirements.mdx#spark) - サポートされている Spark と Scala のバージョン diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/configurations.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/configurations.mdx index 349c578b9..56d8cd127 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/configurations.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/configurations.mdx @@ -4,7 +4,7 @@ tags: displayed_sidebar: docsJapanese --- -# 設定リファレンス +# ScalarDB Analytics の設定 import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; @@ -14,7 +14,7 @@ import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; ## 概要 -ScalarDB Analytics は、設定が必要な 3 つの主要コンポーネントで構成されています: +ScalarDB Analytics は、設定が必要な 3 つの主要コンポーネントで構成されています: 1. **ScalarDB Analytics サーバー** - カタログ情報とメータリングサービスをホストするサーバー 2. **CLI クライアント** - カタログとデータソースを管理するためのコマンドラインインターフェース @@ -22,7 +22,7 @@ ScalarDB Analytics は、設定が必要な 3 つの主要コンポーネント ## ScalarDB Analytics サーバー設定 -サーバーは、データベース接続、ネットワーク設定、ライセンス、オプション機能を定義する標準的な Java プロパティファイル(例:`scalardb-analytics-server.properties`)を使用して設定されます。 +サーバーは、データベース接続、ネットワーク設定、ライセンス、オプション機能を定義する標準的な Java プロパティファイル (例: `scalardb-analytics-server.properties`) を使用して設定されます。 ### メタデータデータベース設定 @@ -87,12 +87,12 @@ ScalarDB Analytics ライセンスを設定します。 #### `licensing.license_check_cert_pem` - **フィールド:** `scalar.db.analytics.server.licensing.license_check_cert_pem` -- **説明:** PEM 文字列としてのライセンス検証証明書。これか `license_check_cert_path` のいずれかを指定する必要があります。 +- **説明:** ライセンス検証に使用する証明書の PEM 形式文字列。本フィールドまたは `license_check_cert_path` のいずれか一方を指定してください。 #### `licensing.license_check_cert_path` - **フィールド:** `scalar.db.analytics.server.licensing.license_check_cert_path` -- **説明:** ライセンス検証証明書ファイルへのパス。これか `license_check_cert_pem` のいずれかを指定する必要があります。 +- **説明:** ライセンス検証に使用する証明書ファイルのパス。本フィールドまたは `license_check_cert_pem` のいずれか一方を指定してください。 ### メータリングストレージ設定 @@ -101,7 +101,7 @@ ScalarDB Analytics ライセンスを設定します。 #### `metering.storage.provider` - **フィールド:** `scalar.db.analytics.server.metering.storage.provider` -- **説明:** メータリングデータのストレージプロバイダー(`filesystem`、`aws-s3`、`azureblob`、`google-cloud-storage`)。 +- **説明:** メータリングデータのストレージプロバイダー (`filesystem`、`aws-s3`、`azureblob`、`google-cloud-storage`)。 #### `metering.storage.containerName` @@ -131,7 +131,7 @@ ScalarDB Analytics ライセンスを設定します。 ## CLI クライアント設定 -CLI クライアントは、ScalarDB Analytics サーバーと通信するための接続設定を Java プロパティファイル(例:`client.properties`)を使用して設定します。 +CLI クライアントは、ScalarDB Analytics サーバーと通信するための接続設定を Java プロパティファイル (例: `client.properties`) を使用して設定します。 ## 設定プロパティ @@ -176,11 +176,11 @@ CLI クライアントは、ScalarDB Analytics サーバーと通信するため #### `server.tls.override_authority` - **フィールド:** `scalar.db.analytics.client.server.tls.override_authority` -- **説明:** TLS 検証のためのサーバー権限をオーバーライド(テストに便利)。 +- **説明:** TLS 検証のためのサーバー権限をオーバーライド (テストに便利)。 ## Spark 統合設定 -Apache Spark で ScalarDB Analytics を使用するには、Spark 設定ファイル(`spark-defaults.conf`)に必要な設定を追加して Spark アプリケーションを設定します。 +Apache Spark で ScalarDB Analytics を使用するには、Spark 設定ファイル (`spark-defaults.conf`) に必要な設定を追加して Spark アプリケーションを設定します。 ### Spark Core 設定 @@ -206,7 +206,9 @@ Apache Spark で ScalarDB Analytics を使用するには、Spark 設定ファ - **説明:** ScalarDB Analytics カタログ実装を登録。`` は ScalarDB Analytics サーバーで作成したカタログの正確な名前に置き換えてください。値として `com.scalar.db.analytics.spark.catalog.ScalarDBAnalyticsCatalog` を使用します。 :::important + `` は CLI を使用して ScalarDB Analytics サーバーで作成したカタログ名と一致する必要があります。例えば、サーバーで `production` という名前のカタログを作成した場合は、`spark.sql.catalog.production` を使用してください。 + ::: ### サーバー接続設定 @@ -250,7 +252,7 @@ Apache Spark で ScalarDB Analytics を使用するには、Spark 設定ファ - **フィールド:** `spark.sql.catalog..server.tls.override_authority` - **説明:** TLS 検証のためのサーバー権限をオーバーライド。 -`` を選択したカタログ名(例:`analytics`)に置き換えてください。 +`` を選択したカタログ名 (例: `analytics`) に置き換えてください。 ## 設定例 @@ -260,7 +262,7 @@ Apache Spark で ScalarDB Analytics を使用するには、Spark 設定ファ 以下は、サーバー、CLI クライアント、および Spark の設定例です。 -#### サーバー設定(`scalardb-analytics-server.properties`) +#### サーバー設定 (`scalardb-analytics-server.properties`) ```properties # メタデータデータベース @@ -272,18 +274,18 @@ scalar.db.analytics.server.db.password=dev_password scalar.db.analytics.server.licensing.license_key=YOUR_DEV_LICENSE_KEY scalar.db.analytics.server.licensing.license_check_cert_path=/path/to/license_cert.pem -# メータリングストレージ(開発用に filesystem) +# メータリングストレージ (開発用に filesystem) scalar.db.analytics.server.metering.storage.provider=filesystem scalar.db.analytics.server.metering.storage.path=/tmp/scalardb-analytics-metering ``` -#### CLI クライアント設定(`client.properties`) +#### CLI クライアント設定 (`client.properties`) ```properties scalar.db.analytics.client.server.host=localhost ``` -#### Spark 設定(`spark-defaults.conf`) +#### Spark 設定 (`spark-defaults.conf`) ```properties spark.jars.packages com.scalar-labs:scalardb-analytics-spark-all-3.5_2.12:3.16.2 @@ -296,7 +298,7 @@ spark.sql.catalog.analytics.server.host localhost 以下は、本番環境での TLS、CLI クライアント、および Spark の設定例です。 -#### サーバー設定(`scalardb-analytics-server.properties`) +#### サーバー設定 (`scalardb-analytics-server.properties`) ```properties # メタデータデータベース @@ -317,7 +319,7 @@ scalar.db.analytics.server.tls.private_key_path=/path/to/server.key scalar.db.analytics.server.licensing.license_key=YOUR_LICENSE_KEY scalar.db.analytics.server.licensing.license_check_cert_pem=-----BEGIN CERTIFICATE-----\nMIID...certificate content...\n-----END CERTIFICATE----- -# メータリングストレージ(S3) +# メータリングストレージ (S3) scalar.db.analytics.server.metering.storage.provider=aws-s3 scalar.db.analytics.server.metering.storage.containerName=analytics-metering scalar.db.analytics.server.metering.storage.accessKeyId=AKIAIOSFODNN7EXAMPLE @@ -325,7 +327,7 @@ scalar.db.analytics.server.metering.storage.secretAccessKey=wJalrXUtnFEMI/K7MDEN scalar.db.analytics.server.metering.storage.prefix=prod/ ``` -#### CLI クライアント設定(`client.properties`) +#### CLI クライアント設定 (`client.properties`) ```properties scalar.db.analytics.client.server.host=analytics.example.com @@ -333,7 +335,7 @@ scalar.db.analytics.client.server.tls.enabled=true scalar.db.analytics.client.server.tls.ca_root_cert_path=/path/to/cert.pem ``` -#### Spark 設定(`spark-defaults.conf`) +#### Spark 設定 (`spark-defaults.conf`) ```properties spark.jars.packages com.scalar-labs:scalardb-analytics-spark-all-3.5_2.12:3.16.2 @@ -346,7 +348,7 @@ spark.sql.catalog.analytics.server.tls.ca_root_cert_path /path/to/cert.pem ## 次のステップ -- [カタログ管理](catalog-management.mdx) - カタログとデータソースの管理方法を学ぶ -- [分析クエリの実行](run-analytical-queries.mdx) - 設定でクエリの実行を開始 -- [デプロイメントガイド](deployment.mdx) - 本番環境での ScalarDB Analytics のデプロイ +- [ScalarDB Analytics カタログの作成](./create-scalardb-analytics-catalog.mdx) - カタログの作成とデータソースの追加方法を学ぶ +- [ScalarDB Analytics を通じた分析クエリの実行](run-analytical-queries.mdx) - 設定でクエリの実行を開始 +- [パブリッククラウド環境への ScalarDB Analytics のデプロイ](deployment.mdx) - 本番環境での ScalarDB Analytics のデプロイ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/create-scalardb-analytics-catalog.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/create-scalardb-analytics-catalog.mdx index 7bc0fed7d..4eeae37c0 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/create-scalardb-analytics-catalog.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/create-scalardb-analytics-catalog.mdx @@ -21,7 +21,7 @@ import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; ### 前提条件 -ScalarDB Analytics サーバーは、カタログ情報を保存するためのデータベースが必要です。このドキュメント全体で、このデータベースを**メタデータデータベース**と呼びます。ScalarDB Analytics は以下のデータベースをメタデータデータベースとしてサポートしています: +ScalarDB Analytics サーバーは、カタログ情報を保存するためのデータベースが必要です。このドキュメント全体で、このデータベースを**メタデータデータベース**と呼びます。ScalarDB Analytics は以下のデータベースをメタデータデータベースとしてサポートしています: - PostgreSQL - MySQL @@ -32,39 +32,41 @@ ScalarDB Analytics サーバーを起動する前に、適切な権限を持つ ### ScalarDB Analytics サーバーの設定 -ScalarDB Analytics サーバー設定ファイル(例:`scalardb-analytics-server.properties`)を作成します。以下の例では PostgreSQL をメタデータデータベースとして使用しています: +ScalarDB Analytics サーバー設定ファイル (例: `scalardb-analytics-server.properties`)を作成します。以下の例では PostgreSQL をメタデータデータベースとして使用しています: ```properties -# メタデータデータベース設定(必須) +# メタデータデータベース設定 (必須) scalar.db.analytics.server.db.url=jdbc:postgresql://localhost:5432/scalardb_analytics scalar.db.analytics.server.db.username=analytics_user scalar.db.analytics.server.db.password=your_secure_password -# gRPC サーバー設定(オプション) +# gRPC サーバー設定 (オプション) scalar.db.analytics.server.catalog.port=11051 # デフォルト scalar.db.analytics.server.metering.port=11052 # デフォルト -# TLS 設定(オプション、本番環境では推奨) +# TLS 設定 (オプション、本番環境では推奨) scalar.db.analytics.server.tls.enabled=true scalar.db.analytics.server.tls.cert_chain_path=/path/to/server.crt scalar.db.analytics.server.tls.private_key_path=/path/to/server.key -# ライセンス設定(必須) +# ライセンス設定 (必須) scalar.db.analytics.server.licensing.license_key= scalar.db.analytics.server.licensing.license_check_cert_pem= -# メータリングストレージ設定(必須) +# メータリングストレージ設定 (必須) scalar.db.analytics.server.metering.storage.provider=filesystem scalar.db.analytics.server.metering.storage.path=/var/scalardb-analytics/metering ``` :::note -本番環境では、メータリングデータのストレージにはローカルファイルシステムではなく、オブジェクトストレージ(例:Amazon S3、Google Cloud Storage、Azure Blob Storage)を使用することを推奨します。詳細な設定オプションについては、[設定リファレンス](./configurations.mdx)を参照してください。 + +本番環境では、メータリングデータのストレージにはローカルファイルシステムではなく、オブジェクトストレージ (例: Amazon S3、Google Cloud Storage、Azure Blob Storage) を使用することを推奨します。詳細な設定オプションについては、[ScalarDB Analytics の設定](./configurations.mdx)を参照してください。 + ::: ### ScalarDB Analytics サーバーの起動 -設定ファイルを使用して ScalarDB Analytics サーバーを起動します: +設定ファイルを使用して ScalarDB Analytics サーバーを起動します: ```console docker run -d \ @@ -79,7 +81,7 @@ docker run -d \ コンテナはデフォルトで `/scalardb-analytics-server/server.properties` の設定ファイルを使用します。 -ScalarDB Analytics サーバーは起動中に以下を実行します: +ScalarDB Analytics サーバーは起動中に以下を実行します: 1. ライセンスを検証 2. メタデータデータベースに接続 @@ -88,13 +90,13 @@ ScalarDB Analytics サーバーは起動中に以下を実行します: :::tip -サーバー設定(ホスト名とポート)をメモしておいてください。後で Spark アプリケーションがカタログに接続するよう設定する際にこの情報が必要になります。 +サーバー設定 (ホスト名とポート) をメモしておいてください。後で Spark アプリケーションがカタログに接続するよう設定する際にこの情報が必要になります。 ::: -### サーバーヘルスチェック(オプション) +### サーバーヘルスチェック (オプション) -サーバーが正常に動作していることを確認したい場合は、grpc-health-probe(コンテナイメージに含まれています)を使用できます: +サーバーが正常に動作していることを確認したい場合は、grpc-health-probe (コンテナイメージに含まれています) を使用できます: ```console # カタログサービスのヘルスチェック @@ -111,9 +113,11 @@ docker exec scalardb-analytics-server grpc-health-probe -addr=localhost:11051 -t ScalarDB Analytics CLI は、ScalarDB Analytics サーバーと通信してカタログの管理、データソースの登録、管理タスクを実行するコマンドラインツールです。 +詳細については、[ScalarDB Analytics CLI コマンドリファレンス](./reference-cli-command.mdx)を参照してください。 + ### CLI のインストール -`scalardb-analytics-cli` ツールはコンテナイメージとして利用可能です: +`scalardb-analytics-cli` ツールはコンテナイメージとして利用可能です: ```console # CLI イメージをプル @@ -122,10 +126,10 @@ docker pull ghcr.io/scalar-labs/scalardb-analytics-cli: `` を使用したい ScalarDB Analytics のバージョンに置き換えてください。利用可能なバージョンは [コンテナレジストリページ](https://github.com/scalar-labs/scalardb-analytics/pkgs/container/scalardb-analytics-cli) で確認できます。 -CLI コマンドを実行するには、設定ファイルをコンテナにマウントする必要があります: +CLI コマンドを実行するには、設定ファイルをコンテナにマウントする必要があります: ```console -# 例:カタログを一覧表示 +# 例: カタログを一覧表示 docker run --rm \ -v $(pwd)/client.properties:/config/client.properties:ro \ ghcr.io/scalar-labs/scalardb-analytics-cli: \ @@ -135,7 +139,7 @@ docker run --rm \ ### クライアント設定 -現在のディレクトリに `client.properties` という名前の設定ファイルを作成します: +現在のディレクトリに `client.properties` という名前の設定ファイルを作成します: ```properties # サーバー接続 @@ -143,23 +147,23 @@ scalar.db.analytics.client.server.host=localhost scalar.db.analytics.client.server.catalog.port=11051 scalar.db.analytics.client.server.metering.port=11052 -# TLS/SSL 設定(サーバーで有効な場合) +# TLS/SSL 設定 (サーバーで有効な場合) scalar.db.analytics.client.server.tls.enabled=true scalar.db.analytics.client.server.tls.ca_root_cert_path=/path/to/ca.crt scalar.db.analytics.client.server.tls.override_authority=analytics.example.com ``` -詳細な設定オプションについては、[設定リファレンス](./configurations.mdx)を参照してください。 +詳細な設定オプションについては、[ScalarDB Analytics の設定](./configurations.mdx)を参照してください。 -### エイリアスの設定(オプション) +### エイリアスの設定 (オプション) -便利のため、長い Docker コマンドを毎回入力することを避けるためにエイリアスを作成できます: +便利のため、長い Docker コマンドを毎回入力することを避けるためにエイリアスを作成できます: ```console alias scalardb-analytics-cli='docker run --rm -v $(pwd)/client.properties:/config/client.properties:ro ghcr.io/scalar-labs/scalardb-analytics-cli: -c /config/client.properties' ``` -このエイリアスを使用すると、より簡単にコマンドを実行できます: +このエイリアスを使用すると、より簡単にコマンドを実行できます: ```console scalardb-analytics-cli catalog list @@ -171,7 +175,7 @@ scalardb-analytics-cli catalog list ### カタログコンテナの作成 -カタログは、データソースを整理するための論理的なコンテナとして機能します。最初のカタログを作成します: +カタログは、データソースを整理するための論理的なコンテナとして機能します。最初のカタログを作成します: ```console scalardb-analytics-cli catalog create production @@ -179,11 +183,11 @@ scalardb-analytics-cli catalog create production :::important -ここで選択したカタログ名(例:`production`)を覚えておいてください。このカタログに接続するよう Spark アプリケーションを設定する際に、この正確な名前を使用する必要があります。 +ここで選択したカタログ名 (例: `production`) を覚えておいてください。このカタログに接続するよう Spark アプリケーションを設定する際に、この正確な名前を使用する必要があります。 ::: -カタログが作成されたことを確認します: +カタログが作成されたことを確認します: ```console scalardb-analytics-cli catalog list @@ -191,9 +195,9 @@ scalardb-analytics-cli catalog list ### カタログにデータソースを追加 -データベースのデータソース登録ファイルを作成します。PostgreSQL の例は以下のとおりです: +データベースのデータソース登録ファイルを作成します。PostgreSQL の例は以下のとおりです: -`postgres-datasource.json` を作成します: +`postgres-datasource.json` を作成します: ```json { @@ -210,9 +214,9 @@ scalardb-analytics-cli catalog list } ``` -他のデータベースタイプ(MySQL、ScalarDB、Oracle、SQL Server、DynamoDB)の詳細な設定オプションと例については、[データソースリファレンス](./reference-data-source.mdx)を参照してください。 +他のデータベースタイプ (MySQL、ScalarDB、Oracle、SQL Server、DynamoDB) の詳細な設定オプションと例については、[データソースリファレンス](./reference-data-source.mdx)を参照してください。 -データソースを登録します: +データソースを登録します: ```console scalardb-analytics-cli data-source register --data-source-json postgres-datasource.json @@ -220,19 +224,19 @@ scalardb-analytics-cli data-source register --data-source-json postgres-datasour ### カタログの検証 -カタログ内のすべてのデータソースを一覧表示します: +カタログ内のすべてのデータソースを一覧表示します: ```console scalardb-analytics-cli data-source list --catalog production ``` -カタログ内の名前空間を一覧表示します: +カタログ内の名前空間を一覧表示します: ```console scalardb-analytics-cli namespace list --catalog production ``` -カタログ内のテーブルを一覧表示します: +カタログ内のテーブルを一覧表示します: ```console scalardb-analytics-cli table list --catalog production @@ -242,9 +246,9 @@ scalardb-analytics-cli table list --catalog production これで、登録されたデータソースを持つ完全に機能する ScalarDB Analytics カタログができました。 -このカタログを使用して分析アプリケーションを開発するには: +このカタログを使用して分析アプリケーションを開発するには: -1. **分析クエリを実行する:** [ScalarDB Analytics を通じた分析クエリの実行](./run-analytical-queries.mdx) -2. **データソースを追加する:** [ScalarDB Analytics データソースリファレンス](./reference-data-source.mdx) -3. **パブリッククラウドにデプロイする:** [パブリッククラウド環境への ScalarDB Analytics のデプロイ](./deployment.mdx) -4. **設定の詳細を確認する:** [設定リファレンス](./configurations.mdx) +1. **分析クエリを実行する: ** [ScalarDB Analytics を通じた分析クエリの実行](./run-analytical-queries.mdx) +2. **データソースを追加する: ** [ScalarDB Analytics データソースリファレンス](./reference-data-source.mdx) +3. **パブリッククラウドにデプロイする: ** [パブリッククラウド環境への ScalarDB Analytics のデプロイ](./deployment.mdx) +4. **設定の詳細を確認する: ** [ScalarDB Analytics の設定](./configurations.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/deployment.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/deployment.mdx index 3467e59e2..e1bc59b20 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/deployment.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/deployment.mdx @@ -12,21 +12,21 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、パブリッククラウド環境に ScalarDB Analytics をデプロイする方法について説明します。ScalarDB Analytics は 2 つの主要なコンポーネントで構成されています:ScalarDB Analytics サーバーと Apache Spark です。このガイドでは、Spark 環境として Amazon EMR または Databricks を選択できます。 +このガイドでは、パブリッククラウド環境に ScalarDB Analytics をデプロイする方法について説明します。ScalarDB Analytics は2つの主要なコンポーネントで構成されています: ScalarDB Analytics サーバーと Apache Spark です。このガイドでは、Spark 環境として Amazon EMR または Databricks を選択できます。 詳細については、[ScalarDB Analytics の設計](./design.mdx)を参照してください。 -## ScalarDB Analytics catalog server のデプロイ +## ScalarDB Analytics server のデプロイ -ScalarDB Analytics には、メタデータとデータソース接続を管理する catalog server が必要です。Catalog server は、Kubernetes クラスター上で Helm チャートを使用してデプロイする必要があります。 +ScalarDB Analytics には、メタデータとデータソース接続を管理する catalog server が必要です。Catalog server は、Kubernetes クラスター上で Helm Chart を使用してデプロイする必要があります。 -詳細なデプロイ手順については、[TBD - Helm チャートデプロイメントガイド]を参照してください。 +詳細なデプロイ手順については、[AWS Marketplace を通じて Scalar 製品をインストールする方法](../scalar-kubernetes/AwsMarketplaceGuide?products=scalardb-analytics-server)を参照してください。 -Catalog server をデプロイした後、Spark 設定のために以下の情報をメモしてください: +Catalog server をデプロイした後、Spark 設定のために以下の情報をメモしてください: - catalog server のホストアドレス -- カタログポート(デフォルト:11051) -- メータリングポート(デフォルト:11052) +- カタログポート (デフォルト: 11051) +- メータリングポート (デフォルト: 11052) ## Spark と ScalarDB Analytics のデプロイ @@ -50,11 +50,11 @@ ScalarDB Analytics は以下のマネージド Spark サービスとアプリケ

Amazon EMR の使用

-ScalarDB Analytics を通じて分析クエリを実行するために Amazon EMR(EMR on EC2)を使用できます。EMR クラスターを起動する基本については、[AWS EMR on EC2 ドキュメント](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan.html)を参照してください。 +ScalarDB Analytics を通じて分析クエリを実行するために Amazon EMR (EMR on EC2) を使用できます。EMR クラスターを起動する基本については、[AWS EMR on EC2 ドキュメント](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan.html)を参照してください。

ScalarDB Analytics の設定

-ScalarDB Analytics を有効にするには、EMR クラスターを起動するときにソフトウェア設定に次の構成を追加する必要があります。括弧内の内容を必ず置き換えてください: +ScalarDB Analytics を有効にするには、EMR クラスターを起動するときにソフトウェア設定に次の構成を追加する必要があります。括弧内の内容を必ず置き換えてください: ```json [ @@ -72,11 +72,11 @@ ScalarDB Analytics を有効にするには、EMR クラスターを起動する ] ``` -括弧内の内容は以下のように変更してください: +括弧内の内容は以下のように変更してください: -- ``: Spark のバージョン(例:`3.5` または `3.4`) -- ``: Spark のビルドに使用される Scala のバージョン(例:`2.13` または `2.12`) -- ``: ScalarDB Analytics のバージョン(例:`3.16.0`) +- ``: Spark のバージョン (例: `3.5` または `3.4`) +- ``: Spark のビルドに使用される Scala のバージョン (例: `2.13` または `2.12`) +- ``: ScalarDB Analytics のバージョン (例: `3.16.0`) - ``: カタログの名前。これは ScalarDB Analytics サーバー上で作成されたカタログと一致する必要があります。 - ``: ScalarDB Analytics サーバーのホストアドレス @@ -94,13 +94,13 @@ Spark Connect を使用して、起動した EMR クラスターを使用して
Spark Connect サーバーのインバウンドトラフィックを許可する
-1. Spark Connect サーバーのインバウンドトラフィックを許可するセキュリティグループを作成します(デフォルトはポート15001)。 +1. Spark Connect サーバーのインバウンドトラフィックを許可するセキュリティグループを作成します (デフォルトはポート15001)。 2. 「Amazon EMR サービスロール」のロールがセキュリティグループを EMR クラスターのプライマリノードにアタッチできるようにします。 3. EMR クラスターを起動するときに、「追加のセキュリティグループ」としてセキュリティグループを EMR クラスターのプライマリノードに追加します。
ブートストラップアクションを介した Spark Connect サーバーの起動
-1. 次のように Spark Connect サーバーを起動するためのスクリプトファイルを作成します: +1. 次のように Spark Connect サーバーを起動するためのスクリプトファイルを作成します: ```bash #!/usr/bin/env bash @@ -112,11 +112,11 @@ cd /var/lib/spark sudo -u spark /usr/lib/spark/sbin/start-connect-server.sh --packages org.apache.spark:spark-connect_:,com.scalar-labs:scalardb-analytics-spark-all-_: ``` -括弧内の内容は以下のように変更してください: +括弧内の内容は以下のように変更してください: -- ``: Spark インストールに合わせた Scala のメジャーおよびマイナーバージョン(2.12 や 2.13 など) -- ``: 使用している Spark の完全なバージョン(3.5.3 など) -- ``: 使用している Spark のメジャーおよびマイナーバージョン(3.5 など) +- ``: Spark インストールに合わせた Scala のメジャーおよびマイナーバージョン (2.12 や 2.13 など) +- ``: 使用している Spark の完全なバージョン (3.5.3 など) +- ``: 使用している Spark のメジャーおよびマイナーバージョン (3.5 など) - ``: ScalarDB Analytics のバージョン 2. スクリプトファイルを S3 にアップロードします。 @@ -125,7 +125,7 @@ sudo -u spark /usr/lib/spark/sbin/start-connect-server.sh --packages org.apache.
分析クエリの実行
-Spark Connect サーバーのリモート URL(`sc://:15001`)を使用して、どこからでも Spark Connect を介して Spark アプリケーションを実行できます。 +Spark Connect サーバーのリモート URL (`sc://:15001`) を使用して、どこからでも Spark Connect を介して Spark アプリケーションを実行できます。 Spark Connect を使用した Spark アプリケーションの作成方法の詳細については、[Spark Connect アプリケーション](./run-analytical-queries.mdx?spark-application-type=spark-connect#spark-アプリケーションの開発)を参照してください。 @@ -143,11 +143,11 @@ Databricks は Apache Spark の修正版を提供しており、オリジナル

Databricks クラスターの起動

-ScalarDB Analytics は Databricks の汎用クラスターとジョブコンピュートクラスターで動作します。クラスターを起動するとき、ScalarDB Analytics を有効にするために以下のようにクラスターを設定する必要があります: +ScalarDB Analytics は Databricks の汎用クラスターとジョブコンピュートクラスターで動作します。クラスターを起動するとき、ScalarDB Analytics を有効にするために以下のようにクラスターを設定する必要があります: -1. クラスターモードに「No isolation shared」を選択します。(これは必須です。ScalarDB Analytics はこのクラスターモードでのみ動作します。) +1. クラスターモードに「No isolation shared」を選択します。 (これは必須です。ScalarDB Analytics はこのクラスターモードでのみ動作します。) 2. Spark 3.4以降をサポートする適切な Databricks ランタイムバージョンを選択します。 -3. 「詳細オプション」>「Spark 設定」を以下のように設定します: +3. 「詳細オプション」>「Spark 設定」を以下のように設定します: ``` spark.extraListeners com.scalar.db.analytics.spark.metering.ScalarDbAnalyticsListener @@ -157,7 +157,7 @@ spark.sql.catalog..server.catalog.port 11051 spark.sql.catalog..server.metering.port 11052 ``` -プレースホルダーを置き換えてください: +プレースホルダーを置き換えてください: - ``: カタログの名前。これは ScalarDB Analytics サーバー上で作成されたカタログと一致する必要があります。 - ``: ScalarDB Analytics サーバーのホストアドレス @@ -172,12 +172,12 @@ Databricks Jobs の使用方法の詳細については、[Databricks Jobs ド

JDBC ドライバーを介した分析クエリの実行

-Databricks はクラスター上で SQL ジョブを実行するための JDBC をサポートしています。以下のような追加設定を行うことで、ScalarDB Analytics で SQL を使用して Spark アプリケーションを実行できます: +Databricks はクラスター上で SQL ジョブを実行するための JDBC をサポートしています。以下のような追加設定を行うことで、ScalarDB Analytics で SQL を使用して Spark アプリケーションを実行できます: 1. Maven リポジトリから ScalarDB Analytics ライブラリの JAR ファイルをダウンロードします。 2. JAR ファイルを Databricks ワークスペースにアップロードします。 3. Maven 依存関係の代わりに、ライブラリとして JAR ファイルをクラスターに追加します。 -4. 以下のように初期化スクリプトを作成します。`` を Databricks ワークスペース内の JAR ファイルのパスに置き換えてください: +4. 以下のように初期化スクリプトを作成します。`` を Databricks ワークスペース内の JAR ファイルのパスに置き換えてください: ```bash #!/bin/bash @@ -198,13 +198,13 @@ done クラスターが起動した後、クラスター詳細ページの「詳細オプション」>「JDBC/ODBC」タブでクラスターの JDBC URL を取得できます。 -JDBC を使用して Databricks クラスターに接続するには、アプリケーションの依存関係に Databricks JDBC ドライバーを追加する必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに次の依存関係を追加できます: +JDBC を使用して Databricks クラスターに接続するには、アプリケーションの依存関係に Databricks JDBC ドライバーを追加する必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに次の依存関係を追加できます: ```groovy implementation("com.databricks:databricks-jdbc:0.9.6-oss") ``` -その後、JDBC アプリケーションで一般的なように、JDBC URL(``)を使用して JDBC で Databricks クラスターに接続できます。 +その後、JDBC アプリケーションで一般的なように、JDBC URL (``) を使用して JDBC で Databricks クラスターに接続できます。 ```java Class.forName("com.databricks.client.jdbc.Driver"); diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/design.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/design.mdx index 4fb8d76e1..d18ac3ad7 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/design.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/design.mdx @@ -23,7 +23,7 @@ ScalarDB Analyticsはデータカタログとクエリエンジンが分離さ ## ユニバーサルデータカタログ -ユニバーサルデータカタログはいくつかのレベルで設定され、以下のように構造化されています: +ユニバーサルデータカタログはいくつかのレベルで設定され、以下のように構造化されています: ```mermaid graph TD @@ -50,27 +50,27 @@ graph TD end ``` -これらのレベルの定義は以下の通りです: +これらのレベルの定義は以下の通りです: -- **Catalog**(カタログ)はすべてのデータソース情報を含むフォルダです。例えば、分析データ用の `analytics_catalog` と日常業務用の `operational_catalog` という2つのカタログを持つことができます。 -- **Data source**(データソース)は接続する各データソースを表します。各データソースについて、以下のような重要な情報を保存します: - - データソースの種類(PostgreSQL、Cassandra など) - - 接続方法(接続詳細とパスワード) - - データソースがサポートする特別な機能(トランザクションなど) -- **Namespace**(名前空間)はデータソース内の関連するテーブルをグループ化するサブフォルダのようなものです。PostgreSQL ではスキーマ、Cassandra ではキースペースと呼ばれます。フォルダ内のフォルダのように、複数レベルの名前空間を持つことができます。 -- **Table**(テーブル)は実際のデータが存在する場所です。各テーブルについて、以下を追跡します: +- **Catalog** (カタログ) はすべてのデータソース情報を含むフォルダです。例えば、分析データ用の `analytics_catalog` と日常業務用の `operational_catalog` という2つのカタログを持つことができます。 +- **Data source** (データソース) は接続する各データソースを表します。各データソースについて、以下のような重要な情報を保存します: + - データソースの種類 (PostgreSQL、Cassandra など) + - 接続方法 (接続詳細とパスワード) + - データソースがサポートする特別な機能 (トランザクションなど) +- **Namespace** (名前空間) はデータソース内の関連するテーブルをグループ化するサブフォルダのようなものです。PostgreSQL ではスキーマ、Cassandra ではキースペースと呼ばれます。フォルダ内のフォルダのように、複数レベルの名前空間を持つことができます。 +- **Table** (テーブル) は実際のデータが存在する場所です。各テーブルについて、以下を追跡します: - どのような列があるか - 各列がどのタイプのデータを格納できるか - - 列が空(null)になれるかどうか -- **View namespace**(ビュー名前空間)はビュー用の特別なフォルダです。1つのデータソースに紐づく通常の名前空間とは異なり、ビュー名前空間は複数のデータソースと同時に連携できます。 -- **View**(ビュー)は以下のことができる仮想テーブルのようなものです: - - データをよりシンプルな方法で表示する(ScalarDB テーブルの技術的な列を隠すなど) + - 列が空 (null) になれるかどうか +- **View namespace** (ビュー名前空間) はビュー用の特別なフォルダです。1つのデータソースに紐づく通常の名前空間とは異なり、ビュー名前空間は複数のデータソースと同時に連携できます。 +- **View** (ビュー) は以下のことができる仮想テーブルのようなものです: + - データをよりシンプルな方法で表示する (ScalarDB テーブルの技術的な列を隠すなど) - SQLクエリを使用して異なるソースからデータを結合する - 各ビューはテーブルと同様に、特定のタイプと空の値に関するルールを持つ独自の列を持っています。 ### サポートされているデータ型 -ScalarDB Analytics は様々なデータソースにわたって幅広いデータ型をサポートしています。ユニバーサルデータカタログはこれらのデータ型を共通のタイプセットにマッピングし、ソース間の互換性と一貫性を確保します。以下のリストは ScalarDB Analytics でサポートされているデータ型を示しています: +ScalarDB Analytics は様々なデータソースにわたって幅広いデータ型をサポートしています。ユニバーサルデータカタログはこれらのデータ型を共通のタイプセットにマッピングし、ソース間の互換性と一貫性を確保します。以下のリストは ScalarDB Analytics でサポートされているデータ型を示しています: - `BYTE` - `SMALLINT` @@ -93,12 +93,12 @@ ScalarDB Analytics は様々なデータソースにわたって幅広いデー ### データソース統合 -データソースを ScalarDB Analytics に登録する際、2種類のマッピングが行われます: +データソースを ScalarDB Analytics に登録する際、2種類のマッピングが行われます: -1. **カタログ構造マッピング:** データソースのカタログ情報(名前空間、テーブル、列)が解決され、ユニバーサルデータカタログ構造にマッピングされます +1. **カタログ構造マッピング:** データソースのカタログ情報 (名前空間、テーブル、列) が解決され、ユニバーサルデータカタログ構造にマッピングされます 2. **データ型マッピング:** 各データソースのネイティブデータ型が、上記のユニバーサルデータ型にマッピングされます -これらのマッピングにより、異なるデータベースシステム間での互換性と一貫性が確保されます。特定のデータベースがどのようにマッピングされるかの詳細については、[データソース別のカタログ情報マッピング](./design.mdx#データソース別のカタログ情報マッピング)を参照してください。 +これらのマッピングにより、異なるデータベースシステム間での互換性と一貫性が確保されます。特定のデータベースがどのようにマッピングされるかの詳細については、[データソース別のカタログ構造マッピング](./reference-data-source.mdx#データソース別のカタログ構造マッピング)を参照してください。 ## クエリエンジン @@ -106,7 +106,7 @@ ScalarDB Analytics は様々なデータソースにわたって幅広いデー クエリを実行するとき、ScalarDB Analytics クエリエンジンプラグインは以下のように動作します。 -1. ユニバーサルデータカタログ API を呼び出してカタログメタデータを取得します(データソースの場所、テーブルオブジェクト識別子、テーブルスキーマなど)。 +1. ユニバーサルデータカタログ API を呼び出してカタログメタデータを取得します (データソースの場所、テーブルオブジェクト識別子、テーブルスキーマなど)。 2. カタログメタデータを使用してデータソースコネクタをセットアップします。 3. カタログメタデータに基づいてクエリ最適化情報をクエリエンジンに提供します。 4. データソースコネクタを使用してデータソースからデータを読み取ります。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/quickstart.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/quickstart.mdx index 1883a8aa8..121c846fc 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/quickstart.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/quickstart.mdx @@ -15,7 +15,7 @@ import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; ## 何を構築するか -このチュートリアルでは、以下のようなサンプル電子商取引分析環境をセットアップします: +このチュートリアルでは、以下のようなサンプル電子商取引分析環境をセットアップします: - 顧客データは PostgreSQL に格納 - 注文データは ScalarDB を介して MySQL で管理 @@ -35,7 +35,7 @@ import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; ### リポジトリをクローンする -**ターミナル** を開き、ScalarDB サンプルリポジトリをクローンします: +**ターミナル** を開き、ScalarDB サンプルリポジトリをクローンします: ```console git clone https://github.com/scalar-labs/scalardb-samples @@ -44,7 +44,7 @@ cd scalardb-samples/scalardb-analytics-sample ### ライセンスを設定する -ScalarDB Analytics ライセンスを追加するには、`config/scalardb-analytics-server.properties` を開きます。次に、ライセンス設定行のコメントを外して更新し、`` と `` を実際のライセンス情報に置き換えます: +ScalarDB Analytics ライセンスを追加するには、`config/scalardb-analytics-server.properties` を開きます。次に、ライセンス設定行のコメントを外して更新し、`` と `` を実際のライセンス情報に置き換えます: ```properties # License configuration (required for production) @@ -60,13 +60,13 @@ scalar.db.analytics.server.licensing.license_check_cert_pem= -ScalarDB Analytics CLI は階層構造のコマンドを使用します: +ScalarDB Analytics CLI は階層構造のコマンドを使用します: ``` scalardb-analytics-cli [options] ``` -利用可能なリソース: +利用可能なリソース: - **catalog:** データソースを整理するためのトップレベルコンテナ - **data-source:** カタログ内に登録された外部データベース @@ -47,14 +47,14 @@ scalardb-analytics-cli catalog list 特定のカタログの詳細情報を表示します。カタログは名前または UUID で指定できます。 -カタログ名で指定する場合: +カタログ名で指定する場合: ``` scalardb-analytics-cli catalog describe --catalog ``` `` を表示したいカタログの名前に置き換えてください。 -カタログ ID で指定する場合: +カタログ ID で指定する場合: ``` scalardb-analytics-cli catalog describe --catalog-id ``` @@ -65,14 +65,14 @@ scalardb-analytics-cli catalog describe --catalog-id システムからカタログを削除します。カタログにデータソースが含まれている場合、`--cascade` オプションを使用してすべてのコンテンツを削除しない限り、操作は失敗します。 -空のカタログを削除する場合: +空のカタログを削除する場合: ``` scalardb-analytics-cli catalog delete --catalog ``` `` を削除したいカタログの名前に置き換えてください。 -カタログとそのすべてのコンテンツを削除する場合: +カタログとそのすべてのコンテンツを削除する場合: ``` scalardb-analytics-cli catalog delete --catalog --cascade ``` @@ -91,7 +91,7 @@ scalardb-analytics-cli data-source register --data-source-json `` をデータソース登録ファイルのファイルパスに置き換えてください。 -`register` コマンドにはデータソース登録ファイルが必要です。ファイル形式については、[データソース設定](#data-source-configuration)セクションで説明されています。 +`register` コマンドにはデータソース登録ファイルが必要です。ファイル形式については、[データソース登録ファイル形式](reference-data-source.mdx#データソース登録ファイル形式)セクションで説明されています。 ### すべてのデータソースを一覧表示 @@ -107,16 +107,16 @@ scalardb-analytics-cli data-source list --catalog 特定のデータソースの詳細情報を表示します。データソースはカタログ内の名前または UUID で指定できます。 -カタログとデータソース名で指定する場合: +カタログとデータソース名で指定する場合: ``` scalardb-analytics-cli data-source describe --catalog --data-source ``` -以下を置き換えてください: +以下を置き換えてください: - `` をデータソースを含むカタログの名前 - `` を表示したいデータソースの名前 -データソース ID で指定する場合: +データソース ID で指定する場合: ``` scalardb-analytics-cli data-source describe --data-source-id ``` @@ -127,16 +127,16 @@ scalardb-analytics-cli data-source describe --data-source-id カタログからデータソースを削除します。データソースに名前空間が含まれている場合、`--cascade` オプションを使用してすべてのコンテンツを削除しない限り、操作は失敗します。 -空のデータソースを削除する場合: +空のデータソースを削除する場合: ``` scalardb-analytics-cli data-source delete --catalog --data-source ``` -以下を置き換えてください: +以下を置き換えてください: - `` をデータソースを含むカタログの名前 - `` を削除したいデータソースの名前 -データソースとそのすべてのコンテンツを削除する場合: +データソースとそのすべてのコンテンツを削除する場合: ``` scalardb-analytics-cli data-source delete --catalog --data-source --cascade ``` @@ -153,24 +153,24 @@ scalardb-analytics-cli data-source delete --catalog --data-source scalardb-analytics-cli namespace list --catalog ``` -以下を置き換えてください: +以下を置き換えてください: - `` を名前空間を一覧表示したいカタログの名前 ### 名前空間の詳細を表示 -特定の名前空間の詳細情報を表示します。名前空間はデータソース内の名前または UUID で指定できます。ネストされた名前空間の場合、`.` を区切り文字として使用します(例:`--namespace parent.child`)。 +特定の名前空間の詳細情報を表示します。名前空間はデータソース内の名前または UUID で指定できます。ネストされた名前空間の場合、`.` を区切り文字として使用します (例: `--namespace parent.child`)。 -カタログ、データソース、名前空間名で指定する場合: +カタログ、データソース、名前空間名で指定する場合: ``` scalardb-analytics-cli namespace describe --catalog --data-source --namespace ``` -以下を置き換えてください: +以下を置き換えてください: - `` をデータソースを含むカタログの名前 - `` を名前空間を含むデータソースの名前 - `` を表示したい名前空間の名前 -名前空間 ID で指定する場合: +名前空間 ID で指定する場合: ``` scalardb-analytics-cli namespace describe --namespace-id ``` @@ -189,25 +189,25 @@ scalardb-analytics-cli namespace describe --namespace-id scalardb-analytics-cli table list --catalog ``` -以下を置き換えてください: +以下を置き換えてください: - `` をデータソースを含むカタログの名前 ### テーブルスキーマを表示 -特定のテーブルのすべてのカラムを含むスキーマ情報を表示します。テーブルは名前空間内の名前または UUID で指定できます。ネストされた名前空間の場合、`.` を区切り文字として使用します(例:`--namespace parent.child`)。 +特定のテーブルのすべてのカラムを含むスキーマ情報を表示します。テーブルは名前空間内の名前または UUID で指定できます。ネストされた名前空間の場合、`.` を区切り文字として使用します (例: `--namespace parent.child`)。 -カタログ、データソース、名前空間、テーブル名で指定する場合: +カタログ、データソース、名前空間、テーブル名で指定する場合: ``` scalardb-analytics-cli table describe --catalog --data-source --namespace --table ``` -以下を置き換えてください: +以下を置き換えてください: - `` をデータソースを含むカタログの名前 - `` を名前空間を含むデータソースの名前 - `` をテーブルを含む名前空間の名前 - `` を表示したいテーブルの名前 -テーブル ID で指定する場合: +テーブル ID で指定する場合: ``` scalardb-analytics-cli table describe --table-id ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/reference-data-source.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/reference-data-source.mdx index 15ef95fb0..24612e678 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/reference-data-source.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/reference-data-source.mdx @@ -38,7 +38,7 @@ import TranslationBanner from "/src/components/_translation-ja-jp.mdx"; ## タイプ別のプロバイダー設定 -以下のセクションでは、サポートされている各データベースタイプのプロバイダー設定を示します: +以下のセクションでは、サポートされている各データベースタイプのプロバイダー設定を示します: @@ -145,7 +145,7 @@ MySQL の設定は以下の通りです。 - **フィールド:** `database` - **説明:** インポートする特定のデータベース。省略した場合、すべてのデータベースがインポートされます。 -- **デフォルト値:** なし(すべてのデータベースをインポート) +- **デフォルト値:** なし (すべてのデータベースをインポート)

@@ -244,7 +244,7 @@ SQL Server の設定は以下の通りです。 - **フィールド:** `database` - **説明:** 接続する特定のデータベース。 -- **デフォルト値:** なし(デフォルトデータベースに接続) +- **デフォルト値:** なし (デフォルトデータベースに接続)

`secure`

@@ -379,11 +379,11 @@ DynamoDB の設定は以下の通りです。 :::note AWS 認証情報 -DynamoDB の認証は標準的な AWS SDK の認証情報プロバイダーチェーンを使用します。認証情報は以下の方法で設定できます: +DynamoDB の認証は標準的な AWS SDK の認証情報プロバイダーチェーンを使用します。認証情報は以下の方法で設定できます: -- 環境変数(`AWS_ACCESS_KEY_ID`、`AWS_SECRET_ACCESS_KEY`) -- AWS 認証情報ファイル(`~/.aws/credentials`) -- IAM ロール(EC2、ECS、Lambda 上で実行する場合) +- 環境変数 (`AWS_ACCESS_KEY_ID`、`AWS_SECRET_ACCESS_KEY`) +- AWS 認証情報ファイル (`~/.aws/credentials`) +- IAM ロール (EC2、ECS、Lambda 上で実行する場合) - AWS SSO または AWS SDK がサポートするその他の認証情報プロバイダー 詳細については、[AWS SDK の認証情報プロバイダーに関するドキュメント](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/credentials.html)を参照してください。 @@ -393,12 +393,12 @@ DynamoDB の認証は標準的な AWS SDK の認証情報プロバイダーチ

`region`

- **フィールド:** `region` -- **説明:** AWS リージョン(例: us-east-1)。`region` または `endpoint` のいずれかを指定する必要があります(両方は指定できません)。 +- **説明:** AWS リージョン (例: us-east-1) 。`region` または `endpoint` のいずれかを指定する必要があります (両方は指定できません)。

`endpoint`

- **フィールド:** `endpoint` -- **説明:** カスタムエンドポイント URL。`region` または `endpoint` のいずれかを指定する必要があります(両方は指定できません)。 +- **説明:** カスタムエンドポイント URL。`region` または `endpoint` のいずれかを指定する必要があります (両方は指定できません)。

`schema`

@@ -407,7 +407,7 @@ DynamoDB の認証は標準的な AWS SDK の認証情報プロバイダーチ

スキーマ構造

-schema フィールドには以下の構造が必要です: +schema フィールドには以下の構造が必要です:
`.schema.namespaces[]`
@@ -417,7 +417,7 @@ schema フィールドには以下の構造が必要です:
`.schema.namespaces[].names[]`
- **フィールド:** `.schema.namespaces[].names[]` -- **説明:** 名前空間名の配列(文字列)。 +- **説明:** 名前空間名の配列 (文字列)。
`.schema.namespaces[].tables[]`
@@ -502,19 +502,18 @@ schema フィールドには以下の構造が必要です: - ScalarDB のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: + ScalarDB のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: - ScalarDB 名前空間は名前空間にマッピングされます。したがって、ScalarDB データソースの名前空間は常に単一レベルで、名前空間名のみで構成されます。 - ScalarDB テーブルはテーブルにマッピングされます。 - ScalarDB 列は列にマッピングされます。 - - - PostgreSQL のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: + + PostgreSQL のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: - PostgreSQL スキーマは名前空間にマッピングされます。したがって、PostgreSQL データソースの名前空間は常に単一レベルで、スキーマ名のみで構成されます。 - - ユーザー定義スキーマのみが名前空間にマッピングされます。以下のシステムスキーマは無視されます: + - ユーザー定義スキーマのみが名前空間にマッピングされます。以下のシステムスキーマは無視されます: - `information_schema` - `pg_catalog` - PostgreSQL テーブルはテーブルにマッピングされます。 @@ -522,10 +521,10 @@ schema フィールドには以下の構造が必要です: - MySQL のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: + MySQL のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: - MySQL データベースは名前空間にマッピングされます。したがって、MySQL データソースの名前空間は常に単一レベルで、データベース名のみで構成されます。 - - ユーザー定義データベースのみが名前空間にマッピングされます。以下のシステムデータベースは無視されます: + - ユーザー定義データベースのみが名前空間にマッピングされます。以下のシステムデータベースは無視されます: - `mysql` - `sys` - `information_schema` @@ -535,10 +534,10 @@ schema フィールドには以下の構造が必要です: - Oracle のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: + Oracle のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: - Oracle スキーマは名前空間にマッピングされます。したがって、Oracle データソースの名前空間は常に単一レベルで、スキーマ名のみで構成されます。 - - ユーザー定義スキーマのみが名前空間にマッピングされます。以下のシステムスキーマは無視されます: + - ユーザー定義スキーマのみが名前空間にマッピングされます。以下のシステムスキーマは無視されます: - `ANONYMOUS` - `APPQOSSYS` - `AUDSYS` @@ -578,10 +577,10 @@ schema フィールドには以下の構造が必要です: - SQL Server のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: + SQL Server のカタログ構造は ScalarDB Analytics によって自動的に解決されます。カタログレベルのオブジェクトは以下のようにマッピングされます: - - SQL Server の各データベース・スキーマペアは ScalarDB Analytics の名前空間にマッピングされます。したがって、SQL Server データソースの名前空間は常に2レベルで、データベース名とスキーマ名で構成されます。 - - ユーザー定義データベースのみが名前空間にマッピングされます。以下のシステムデータベースは無視されます: + - SQL Server データベースとスキーマは共に名前空間にマッピングされます。したがって、SQL Server データソースの名前空間は常に2レベルで、データベース名とスキーマ名で構成されます。 + - ユーザー定義データベースのみが名前空間にマッピングされます。以下のシステムデータベースは無視されます: - `sys` - `guest` - `INFORMATION_SCHEMA` @@ -594,7 +593,7 @@ schema フィールドには以下の構造が必要です: - `db_denydatawriter` - `db_owner` - `db_securityadmin` - - ユーザー定義スキーマのみが名前空間にマッピングされます。以下のシステムスキーマは無視されます: + - ユーザー定義スキーマのみが名前空間にマッピングされます。以下のシステムスキーマは無視されます: - `master` - `model` - `msdb` @@ -627,7 +626,7 @@ schema フィールドには以下の構造が必要です: - DynamoDB はスキーマレスであるため、DynamoDB データソースを登録する際に以下のような形式の JSON を使用してカタログ構造を明示的に指定する必要があります: + DynamoDB はスキーマレスであるため、DynamoDB データソースを登録する際に以下のような形式の JSON を使用してカタログ構造を明示的に指定する必要があります: ```json { @@ -660,7 +659,7 @@ schema フィールドには以下の構造が必要です: ### データ型マッピング -以下のセクションでは、各データソースのネイティブ型が ScalarDB Analytics 型にどのようにマッピングされるかを示します: +以下のセクションでは、各データソースのネイティブ型が ScalarDB Analytics 型にどのようにマッピングされるかを示します: :::warning @@ -851,7 +850,7 @@ schema フィールドには以下の構造が必要です: :::note -DynamoDB の複合データ型(String Set、Number Set、Binary Set、List、Map)は互換性のために `TEXT` にマッピングされます。実際の値は ScalarDB Analytics クエリで JSON 文字列としてシリアル化されます。 +DynamoDB の複合データ型 (String Set、Number Set、Binary Set、List、Map) は互換性のために `TEXT` にマッピングされます。実際の値は ScalarDB Analytics クエリで JSON 文字列としてシリアル化されます。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx index 906dcba25..fdc7a06c9 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx @@ -23,13 +23,7 @@ ScalarDB Analytics は現在、実行エンジンとして Spark を使用し、 ### 前提条件 - **ScalarDB Analytics server:** カタログメタデータを管理し、データソースに接続する実行中のインスタンス。サーバーには少なくとも1つのデータソースが登録されている必要があります。データソースの登録については、[ScalarDB Analytics カタログの作成](./create-scalardb-analytics-catalog.mdx)を参照してください。 -- **Apache Spark:** 互換性のあるバージョンの Apache Spark。サポートされているバージョンについては、[バージョン互換性](#バージョン互換性)を参照してください。まだ Spark をインストールしていない場合は、[Apache Spark のウェブサイト](https://spark.apache.org/downloads.html)から Spark ディストリビューションをダウンロードしてください。 - -:::note - -Apache Spark は Scala 2.12 または Scala 2.13 でビルドされています。ScalarDB Analytics は両方のバージョンをサポートしています。後で適切なバージョンの ScalarDB Analytics を選択できるように、使用しているバージョンを確認してください。詳細については、[バージョン互換性](#バージョン互換性)を参照してください。 - -::: +- **Apache Spark:** 互換性のあるバージョンの Apache Spark。サポートされているバージョンについては、[Spark](../requirements.mdx#spark)を参照してください。まだ Spark をインストールしていない場合は、[Apache Spark のウェブサイト](https://spark.apache.org/downloads.html)から Spark ディストリビューションをダウンロードしてください。 ### ScalarDB Analytics のセットアップのための Spark 設定 @@ -77,7 +71,7 @@ spark.sql.catalog.myanalytics.server.metering.port 11052 :::important -Spark 設定のカタログ名は、CLI を使用して ScalarDB Analytics サーバー上で作成されたカタログの名前と一致させる必要があります。たとえば、サーバー上で `production` という名前のカタログを作成した場合、Spark 設定プロパティでカタログ名として `production` を使用する必要があります(例:`spark.sql.catalog.production`、`spark.sql.catalog.production.server.host` など)。 +Spark 設定のカタログ名は、CLI を使用して ScalarDB Analytics サーバー上で作成されたカタログの名前と一致させる必要があります。たとえば、サーバー上で `production` という名前のカタログを作成した場合、Spark 設定プロパティでカタログ名として `production` を使用する必要があります (例: `spark.sql.catalog.production`、`spark.sql.catalog.production.server.host` など)。 ::: @@ -115,11 +109,11 @@ ScalarDB Analytics を使用した Spark アプリケーションの開発には :::note -環境によっては、上記のすべての方法を使用できない場合があります。サポートされる機能とデプロイメントオプションの詳細については、[サポートされるマネージド Spark サービスとそのアプリケーションタイプ](./deployment.mdx#サポートされるマネージド-spark-サービスとそのアプリケーションタイプ)を参照してください。 +環境によっては、上記のすべての方法を使用できない場合があります。サポートされる機能とデプロイメントオプションの詳細については、[サポートされているマネージド Spark サービスとそのアプリケーションタイプ](./deployment.mdx#サポートされているマネージド-spark-サービスとそのアプリケーションタイプ)を参照してください。 ::: -これらのすべての方法で、同じテーブル識別子形式を使用して ScalarDB Analytics のテーブルを参照できます。ScalarDB Analytics がデータソースからカタログ情報をマッピングする方法の詳細については、[カタログ情報リファレンス](./reference-data-source.mdx#カタログ情報リファレンス)を参照してください。 +これらのすべての方法で、同じテーブル識別子形式を使用して ScalarDB Analytics のテーブルを参照できます。ScalarDB Analytics がデータソースからカタログ情報をマッピングする方法の詳細については、[カタログ情報リファレンス](./design.mdx#データソース別のカタログ情報マッピング)を参照してください。 @@ -132,7 +126,7 @@ ScalarDB Analytics のテーブルからデータを読み取るには、通常 ```kotlin dependencies { - implementation("com.scalar-labs:scalardb-analytics-spark-_:") + implementation("com.scalar-labs:scalardb-analytics-spark-all-_:") } ``` @@ -238,7 +232,7 @@ Spark Connect の使用方法の詳細については、[Spark Connect のドキ ScalarDB Analytics は、データソース、名前空間、テーブル、列を含む独自のカタログを管理します。この情報は自動的に Spark カタログにマッピングされます。このセクションでは、ScalarDB Analytics がカタログ情報を Spark カタログにマッピングする方法について説明します。 -データソース内の情報が ScalarDB Analytics カタログにマッピングされる方法の詳細については、[データソース別のカタログ情報マッピング](./design.mdx#データソース別のカタログ情報マッピング)を参照してください。 +データソース内の情報が ScalarDB Analytics カタログにマッピングされる方法の詳細については、[データソース別のカタログ構造マッピング](./reference-data-source.mdx#データソース別のカタログ構造マッピング)を参照してください。 ### カタログ構造のマッピング @@ -279,16 +273,3 @@ ScalarDB Analytics は、カタログ内のデータ型を Spark データ型に | `TIMESTAMPTZ` | `Timestamp` | | `DURATION` | `CalendarInterval` | | `INTERVAL` | `CalendarInterval` | - -## バージョン互換性 - -Spark と Scala は異なるマイナーバージョン間で互換性がない場合があるため、ScalarDB Analytics は様々な Spark と Scala バージョン向けに `scalardb-analytics-spark-all-_` という形式で異なるアーティファクトを提供しています。使用している Spark と Scala のバージョンに合わせてアーティファクトを選択してください。例えば、Spark 3.5 と Scala 2.13 を使用している場合は、`scalardb-analytics-spark-all-3.5_2.13` を指定する必要があります。 - -Java バージョンに関しては、ScalarDB Analytics は Java 8以降をサポートしています。 - -以下は、ScalarDB Analytics の各バージョンでサポートされている Spark と Scalar のバージョンのリストです。 - -| ScalarDB Analytics バージョン | ScalarDB バージョン | サポートされている Spark バージョン | サポートされている Scala バージョン | 最小 Java バージョン | -| :---------------------------- | :------------------ | :---------------------------------- | :---------------------------------- | :------------------- | -| 3.16 | 3.16 | 3.5, 3.4 | 2.13, 2.12 | 8 | -| 3.15 | 3.15 | 3.5, 3.4 | 2.13, 2.12 | 8 |