diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx index a122f518..afff7813 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-analytics/run-analytical-queries.mdx @@ -32,9 +32,9 @@ Apache Spark は Scala 2.12 または Scala 2.13 でビルドされています ### ScalarDB Analytics のセットアップのための Spark 設定 -以下のセクションでは、ScalarDB Analyticsで利用可能なすべての設定オプションについて説明します。 +以下のセクションでは、ScalarDB Analytics で利用可能なすべての設定オプションについて説明します。 -- ScalarDB AnalyticsのSparkとの統合方法 +- ScalarDB Analytics の Spark との統合方法 - データソースの接続とアクセス方法 - ライセンス情報の提供方法 @@ -42,116 +42,132 @@ Apache Spark は Scala 2.12 または Scala 2.13 でビルドされています #### Spark プラグインの設定 -| 設定キー名 | 必須 | 説明 | -|:-----------------------------------|:------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| 設定キー名 | 必須 | 説明 | +|:-----------------------------------|:------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | `spark.jars.packages` | いいえ | 必要な依存関係の Maven 座標をカンマ区切りで指定します。使用する ScalarDB Analytics パッケージを含める必要があります。含めない場合は、Spark アプリケーションの実行時にコマンドライン引数として指定します。ScalarDB Analytics の Maven 座標の詳細については、[ScalarDB Analytics 依存関係の追加](#scalardb-analytics-依存関係の追加)を参照してください。 | -| `spark.sql.extensions` | はい | `com.scalar.db.analytics.spark.extension.ScalarDbAnalyticsExtensions` を設定する必要があります。 | -| `spark.sql.catalog.` | はい | `com.scalar.db.analytics.spark.ScalarDbAnalyticsCatalog` を設定する必要があります。 +| `spark.sql.extensions` | はい | `com.scalar.db.analytics.spark.extension.ScalarDbAnalyticsExtensions` を設定する必要があります。 | +| `spark.sql.catalog.` | はい | `com.scalar.db.analytics.spark.ScalarDbAnalyticsCatalog` を設定する必要があります。 | -``には任意の名前を指定できます。設定全体で同じカタログ名を使用するようにしてください。 +`` には任意の名前を指定できます。設定全体で同じカタログ名を使用するようにしてください。 #### ライセンスの設定 -| 設定キー名 | 必須 | 説明 | -|:---------|:-----|:-----| -| `spark.sql.catalog..license.key` | はい | ScalarDB AnalyticsのライセンスキーのJSON文字列 | -| `spark.sql.catalog..license.cert_pem` | はい | ScalarDB AnalyticsライセンスのPEMエンコードされた証明書の文字列。`cert_pem`または`cert_path`のいずれかを設定する必要があります。 | -| `spark.sql.catalog..license.cert_path` | はい | ScalarDB AnalyticsライセンスのPEMエンコードされた証明書へのパス。`cert_pem`または`cert_path`のいずれかを設定する必要があります。 | +| 設定キー名 | 必須 | 説明 | +|:-----------------------------------------------------|:-----|:------------------------------------------------------------------------------------------------------------------------| +| `spark.sql.catalog..license.key` | はい | ScalarDB Analytics のライセンスキーの JSON 文字列 | +| `spark.sql.catalog..license.cert_pem` | はい | ScalarDB Analytics ライセンスの PEM エンコードされた証明書の文字列。`cert_pem` または `cert_path` のいずれかを設定する必要があります。 | +| `spark.sql.catalog..license.cert_path` | はい | ScalarDB Analytics ライセンスの PEM エンコードされた証明書へのパス。`cert_pem` または `cert_path` のいずれかを設定する必要があります。 | #### データソースの設定 -ScalarDB Analyticsは複数のタイプのデータソースをサポートしています。各タイプには特定の設定パラメータが必要です: +ScalarDB Analytics は複数のタイプのデータソースをサポートしています。各タイプには特定の設定パラメータが必要です: :::note -ScalarDB AnalyticsはScalarDBをデータソースとしてサポートしています。この表では、ScalarDBをデータソースとして設定する方法について説明します。 +ScalarDB Analytics は ScalarDB をデータソースとしてサポートしています。この表では、ScalarDB をデータソースとして設定する方法について説明します。 ::: -| 設定キー名 | 必須 | 説明 | -|:---------|:-----|:-----| -| `spark.sql.catalog..data_source..type` | はい | 常に`scalardb`を設定します | -| `spark.sql.catalog..data_source..config_path` | はい | ScalarDBの設定ファイルへのパス | +| 設定キー名 | 必須 | 説明 | +|:------------------------------------------------------------------------------|:-----|:----------------------------| +| `spark.sql.catalog..data_source..type` | はい | 常に `scalardb` を設定します | +| `spark.sql.catalog..data_source..config_path` | はい | ScalarDB の設定ファイルへのパス | :::tip -``には任意の名前を使用できます。 +`` には任意の名前を使用できます。 ::: -| 設定キー名 | 必須 | 説明 | -|:---------|:-----|:-----| -| `spark.sql.catalog..data_source..type` | はい | 常に`mysql`を設定します | -| `spark.sql.catalog..data_source..host` | はい | MySQLサーバーのホスト名 | -| `spark.sql.catalog..data_source..port` | はい | MySQLサーバーのポート番号 | -| `spark.sql.catalog..data_source..username` | はい | MySQLサーバーのユーザー名 | -| `spark.sql.catalog..data_source..password` | はい | MySQLサーバーのパスワード | +| 設定キー名 | 必須 | 説明 | +|:---------------------------------------------------------------------------|:------|:-----------------------| +| `spark.sql.catalog..data_source..type` | はい | 常に `mysql` を設定します | +| `spark.sql.catalog..data_source..host` | はい | MySQL サーバーのホスト名 | +| `spark.sql.catalog..data_source..port` | はい | MySQL サーバーのポート番号 | +| `spark.sql.catalog..data_source..username` | はい | MySQL サーバーのユーザー名 | +| `spark.sql.catalog..data_source..password` | はい | MySQL サーバーのパスワード | | `spark.sql.catalog..data_source..database` | いいえ | 接続するデータベースの名前 | :::tip -``には任意の名前を使用できます。 +`` には任意の名前を使用できます。 ::: -| 設定キー名 | 必須 | 説明 | -|:---------|:-----|:-----| -| `spark.sql.catalog..data_source..type` | はい | 常に`postgresql`または`postgres`を設定します | -| `spark.sql.catalog..data_source..host` | はい | PostgreSQLサーバーのホスト名 | -| `spark.sql.catalog..data_source..port` | はい | PostgreSQLサーバーのポート番号 | -| `spark.sql.catalog..data_source..username` | はい | PostgreSQLサーバーのユーザー名 | -| `spark.sql.catalog..data_source..password` | はい | PostgreSQLサーバーのパスワード | -| `spark.sql.catalog..data_source..database` | はい | 接続するデータベースの名前 | +| 設定キー名 | 必須 | 説明 | +|:---------------------------------------------------------------------------|:-----|:---------------------------------------------| +| `spark.sql.catalog..data_source..type` | はい | 常に `postgresql` または `postgres` を設定します | +| `spark.sql.catalog..data_source..host` | はい | PostgreSQL サーバーのホスト名 | +| `spark.sql.catalog..data_source..port` | はい | PostgreSQL サーバーのポート番号 | +| `spark.sql.catalog..data_source..username` | はい | PostgreSQL サーバーのユーザー名 | +| `spark.sql.catalog..data_source..password` | はい | PostgreSQL サーバーのパスワード | +| `spark.sql.catalog..data_source..database` | はい | 接続するデータベースの名前 | :::tip -``には任意の名前を使用できます。 +`` には任意の名前を使用できます。 ::: -| 設定キー名 | 必須 | 説明 | -|:---------|:-----|:-----| -| `spark.sql.catalog..data_source..type` | はい | 常に`oracle`を設定します | -| `spark.sql.catalog..data_source..host` | はい | Oracleサーバーのホスト名 | -| `spark.sql.catalog..data_source..port` | はい | Oracleサーバーのポート番号 | -| `spark.sql.catalog..data_source..username` | はい | Oracleサーバーのユーザー名 | -| `spark.sql.catalog..data_source..password` | はい | Oracleサーバーのパスワード | -| `spark.sql.catalog..data_source..service_name` | はい | Oracleサーバーのサービス名 | +| 設定キー名 | 必須 | 説明 | +|:-------------------------------------------------------------------------------|:-----|:------------------------| +| `spark.sql.catalog..data_source..type` | はい | 常に `oracle` を設定します | +| `spark.sql.catalog..data_source..host` | はい | Oracle サーバーのホスト名 | +| `spark.sql.catalog..data_source..port` | はい | Oracle サーバーのポート番号 | +| `spark.sql.catalog..data_source..username` | はい | Oracle サーバーのユーザー名 | +| `spark.sql.catalog..data_source..password` | はい | Oracle サーバーのパスワード | +| `spark.sql.catalog..data_source..service_name` | はい | Oracle サーバーのサービス名 | :::tip -``には任意の名前を使用できます。 +`` には任意の名前を使用できます。 ::: -| 設定キー名 | 必須 | 説明 | -|:---------|:-----|:-----| -| `spark.sql.catalog..data_source..type` | はい | 常に`sqlserver`または`mssql`を設定します | -| `spark.sql.catalog..data_source..host` | はい | SQL Serverのホスト名 | -| `spark.sql.catalog..data_source..port` | はい | SQL Serverのポート番号 | -| `spark.sql.catalog..data_source..username` | はい | SQL Serverのユーザー名 | -| `spark.sql.catalog..data_source..password` | はい | SQL Serverのパスワード | -| `spark.sql.catalog..data_source..database` | いいえ | 接続するデータベースの名前 | -| `spark.sql.catalog..data_source..secure` | いいえ | SQL Serverへの接続にセキュアな接続を使用するかどうか。セキュアな接続を使用する場合は`true`を設定します。 | +| 設定キー名 | 必須 | 説明 | +|:---------------------------------------------------------------------------|:-------|:--------------------------------------------------------------------------------------------| +| `spark.sql.catalog..data_source..type` | はい | 常に `sqlserver` または `mssql` を設定します | +| `spark.sql.catalog..data_source..host` | はい | SQL Server のホスト名 | +| `spark.sql.catalog..data_source..port` | はい | SQL Server のポート番号 | +| `spark.sql.catalog..data_source..username` | はい | SQL Server のユーザー名 | +| `spark.sql.catalog..data_source..password` | はい | SQL Server のパスワード | +| `spark.sql.catalog..data_source..database` | いいえ | 接続するデータベースの名前 | +| `spark.sql.catalog..data_source..secure` | いいえ | SQL Server への接続にセキュアな接続を使用するかどうか。セキュアな接続を使用する場合は `true` を設定します。 | + +:::tip + +`` には任意の名前を使用できます。 + +::: + + + + +| 設定キー名 | 必須 | 説明 | +|:---------------------------------------------------------------------------|:--------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------| +| `spark.sql.catalog..data_source..type` | はい | 常に `dynamodb` を設定します | +| `spark.sql.catalog..data_source..region` | `region` または `endpoint` のいずれかを設定する必要があります | DynamoDB インスタンスの AWS リージョン | +| `spark.sql.catalog..data_source..endpoint` | `region` または `endpoint` のいずれかを設定する必要があります | DynamoDB インスタンスの AWS エンドポイント | +| `spark.sql.catalog..data_source..schema` | はい | カタログのスキーマを表す JSON オブジェクト。形式の詳細については、[カタログレベルのマッピング](./design.mdx#カタログレベルのマッピング)を参照してください。 | :::tip -``には任意の名前を使用できます。 +`` には任意の名前を使用できます。 ::: @@ -160,7 +176,7 @@ ScalarDB AnalyticsはScalarDBをデータソースとしてサポートしてい #### 設定例 -以下は、複数のデータソースを持つ`scalardb`という名前のカタログを設定するScalarDB Analyticsの設定例です: +以下は、複数のデータソースを持つ `scalardb` という名前のカタログを設定する ScalarDB Analytics の設定例です: ```conf # Sparkプラグインの設定 @@ -184,25 +200,25 @@ spark.sql.catalog.scalardb.data_source.mysql_source.password password spark.sql.catalog.scalardb.data_source.mysql_source.database mydb ``` -括弧内の内容は以下のように変更する必要があります: +括弧内の内容は以下のように変更する必要があります: -- ``: ScalarDB Analyticsのライセンスキー -- ``: ScalarDB AnalyticsライセンスのPEMエンコードされた証明書 -- ``: 使用しているSparkのメジャーおよびマイナーバージョン(例:3.4) -- ``: Sparkインストールに対応するScalaのメジャーおよびマイナーバージョン(例:2.12または2.13) -- ``: ScalarDB Analyticsのバージョン +- ``: ScalarDB Analytics のライセンスキー +- ``: ScalarDB Analytics ライセンスの PEM エンコードされた証明書 +- ``: 使用している Spark のメジャーおよびマイナーバージョン (例: 3.4) +- ``: Spark インストールに対応する Scala のメジャーおよびマイナーバージョン (例: 2.12 または 2.13) +- ``: ScalarDB Analytics のバージョン ### ScalarDB Analytics 依存関係の追加 -ScalarDB Analytics は Maven Central Repository でホストされています。パッケージ名は `scalardb-analytics-spark-all-_:` で、以下の通りです: +ScalarDB Analytics は Maven Central Repository でホストされています。パッケージ名は `scalardb-analytics-spark-all-_:` で、以下の通りです: -- ``: 使用している Spark のメジャーおよびマイナーバージョン(例:3.4) -- ``: Spark インストールに対応する Scala のメジャーおよびマイナーバージョン(例:2.12 または 2.13) +- ``: 使用している Spark のメジャーおよびマイナーバージョン (例: 3.4) +- ``: Spark インストールに対応する Scala のメジャーおよびマイナーバージョン (例: 2.12 または 2.13) - ``: ScalarDB Analytics のバージョン バージョンの互換性の詳細については、[バージョン互換性](#バージョン互換性)を参照してください。 -プロジェクトのビルド設定を設定することで、この依存関係をプロジェクトに追加できます。例えば、Gradleを使用している場合は、`build.gradle`ファイルに以下を追加できます: +プロジェクトのビルド設定を設定することで、この依存関係をプロジェクトに追加できます。例えば、Gradle を使用している場合は、`build.gradle` ファイルに以下を追加できます: ```groovy dependencies { @@ -220,11 +236,11 @@ Gradle の Shadow プラグインや Maven の Shade プラグインなどを使 このセクションでは、Java を使用して ScalarDB Analytics を使用する Spark アプリケーションを開発する方法について説明します。 -ScalarDB Analytics を使用した Spark アプリケーションの開発には3つの方法があります: +ScalarDB Analytics を使用した Spark アプリケーションの開発には3つの方法があります: -1. **Sparkドライバーアプリケーション**: クラスター内で実行される従来のSparkアプリケーション -2. **Spark Connectアプリケーション**: Spark Connectプロトコルを使用するリモートアプリケーション -3. **JDBCアプリケーション**: JDBCインターフェースを使用するリモートアプリケーション +1. **Spark ドライバーアプリケーション:** クラスター内で実行される従来のSparkアプリケーション +2. **Spark Connect アプリケーション:** Spark Connectプロトコルを使用するリモートアプリケーション +3. **JDBC アプリケーション:** JDBCインターフェースを使用するリモートアプリケーション :::note @@ -237,11 +253,11 @@ ScalarDB Analytics を使用した Spark アプリケーションの開発には -ScalarDB Analyticsには一般的に使用される`SparkSession`クラスを使用できます。また、YARN、Kubernetes、スタンドアロン、ローカルモードなど、Sparkがサポートするあらゆるタイプのクラスターデプロイメントを使用できます。 +ScalarDB Analytics には一般的に使用される `SparkSession` クラスを使用できます。また、YARN、Kubernetes、スタンドアロン、ローカルモードなど、Spark がサポートするあらゆるタイプのクラスターデプロイメントを使用できます。 -ScalarDB Analyticsのテーブルからデータを読み取るには、通常のSparkテーブルを読み取る場合と同じように`spark.sql`または`spark.read.table`関数を使用できます。 +ScalarDB Analytics のテーブルからデータを読み取るには、通常のSparkテーブルを読み取る場合と同じように `spark.sql` または `spark.read.table` 関数を使用できます。 -まず、Javaプロジェクトをセットアップする必要があります。例えば、Gradleを使用している場合は、`build.gradle`ファイルに以下を追加できます: +まず、Java プロジェクトをセットアップする必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに以下を追加できます: ```groovy dependencies { @@ -249,7 +265,7 @@ dependencies { } ``` -以下はSparkドライバーアプリケーションの例です: +以下は Spark ドライバーアプリケーションの例です: ```java import org.apache.spark.sql.SparkSession; @@ -265,11 +281,11 @@ public class MyApp { } ``` -その後、`spark-submit`コマンドを使用してアプリケーションをビルドして実行できます。 +その後、`spark-submit` コマンドを使用してアプリケーションをビルドして実行できます。 :::note -通常のSparkアプリケーションと同様に、アプリケーションのfat JARファイルをビルドする必要がある場合があります。 +通常の Spark アプリケーションと同様に、アプリケーションの fat JAR ファイルをビルドする必要がある場合があります。 ::: @@ -279,7 +295,7 @@ spark-submit --class MyApp --master local[*] my-spark-application-all.jar :::tip -`spark-sql`や`spark-shell`などのSparkが提供する他のCLIツールを使用して、ScalarDB Analyticsのテーブルを操作することもできます。 +`spark-sql` や `spark-shell` などの Spark が提供する他の CLI ツールを使用して、ScalarDB Analytics のテーブルを操作することもできます。 ::: @@ -288,17 +304,17 @@ spark-submit --class MyApp --master local[*] my-spark-application-all.jar [Spark Connect](https://spark.apache.org/spark-connect/) を使用して ScalarDB Analytics と対話できます。Spark Connect を使用することで、リモートの Spark クラスターにアクセスし、Spark ドライバーアプリケーションと同じ方法でデータを読み取ることができます。以下では、Spark Connect の使用方法について簡単に説明します。 -まず、リモートの Spark クラスターで以下のコマンドを実行して、Spark Connect サーバーを起動する必要があります: +まず、リモートの Spark クラスターで以下のコマンドを実行して、Spark Connect サーバーを起動する必要があります: ```console ./sbin/start-connect-server.sh --packages org.apache.spark:spark-connect_:,com.scalar-labs:scalardb-analytics-spark-all-_: ``` -括弧内の内容は以下のように変更する必要があります: +括弧内の内容は以下のように変更する必要があります: -- ``: Spark インストールに対応する Scala のメジャーおよびマイナーバージョン(例:2.12 または 2.13) -- ``: 使用している Spark の完全なバージョン(例:3.5.3) -- ``: 使用している Spark のメジャーおよびマイナーバージョン(例:3.5) +- ``: Spark インストールに対応する Scala のメジャーおよびマイナーバージョン (例: 2.12 または 2.13) +- ``: 使用している Spark の完全なバージョン (例: 3.5.3) +- ``: 使用している Spark のメジャーおよびマイナーバージョン (例 3.5) - ``: ScalarDB Analytics のバージョン :::note @@ -307,7 +323,7 @@ spark-submit --class MyApp --master local[*] my-spark-application-all.jar ::: -また、アプリケーションに Spark Connect クライアントパッケージを含める必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに以下を追加できます: +また、アプリケーションに Spark Connect クライアントパッケージを含める必要があります。例えば、Gradle を使用している場合は、`build.gradle` ファイルに以下を追加できます: ```kotlin implementation("org.apache.spark:spark-connect-client-jvm_2.12:3.5.3") @@ -331,7 +347,7 @@ public class MyApp { } ``` -以下のコマンドを実行して、Spark Connect クライアントアプリケーションを通常の Java アプリケーションとして実行できます: +以下のコマンドを実行して、Spark Connect クライアントアプリケーションを通常の Java アプリケーションとして実行できます: ```console java -jar my-spark-connect-client.jar @@ -349,43 +365,43 @@ Spark Connect の使用方法の詳細については、[Spark Connect のドキ ## カタログ情報のマッピング -ScalarDB Analyticsは、データソース、名前空間、テーブル、列を含む独自のカタログを管理します。この情報は自動的にSparkカタログにマッピングされます。このセクションでは、ScalarDB Analyticsがカタログ情報をSparkカタログにマッピングする方法について説明します。 +ScalarDB Analytics は、データソース、名前空間、テーブル、列を含む独自のカタログを管理します。この情報は自動的に Spark カタログにマッピングされます。このセクションでは、ScalarDB Analytics がカタログ情報を Spark カタログにマッピングする方法について説明します。 -データソース内の情報がScalarDB Analyticsカタログにマッピングされる方法の詳細については、[データソース別のカタログ情報マッピング](./design.mdx#データソース別のカタログ情報マッピング)を参照してください。 +データソース内の情報が ScalarDB Analytics カタログにマッピングされる方法の詳細については、[データソース別のカタログ情報マッピング](./design.mdx#データソース別のカタログ情報マッピング)を参照してください。 ### カタログレベルのマッピング -ScalarDB Analyticsカタログの各カタログレベルオブジェクトは、Sparkカタログにマッピングされます。以下の表は、カタログレベルがどのようにマッピングされるかを示しています: +ScalarDB Analytics カタログの各カタログレベルオブジェクトは、Spark カタログにマッピングされます。以下の表は、カタログレベルがどのようにマッピングされるかを示しています: #### データソーステーブル -ScalarDB Analyticsカタログのデータソースのテーブルは、Sparkテーブルにマッピングされます。ScalarDB Analyticsテーブルに対応するSparkテーブルの識別子には以下の形式が使用されます: +ScalarDB Analytics カタログのデータソースのテーブルは、Spark テーブルにマッピングされます。ScalarDB Analytics テーブルに対応する Spark テーブルの識別子には以下の形式が使用されます: ```console ... ``` -括弧内の内容は以下の通りです: +括弧内の内容は以下の通りです: - ``: カタログの名前 - ``: データソースの名前 -- ``: 名前空間の名前。名前空間が複数レベルある場合は、ドット(`.`)で区切って連結されます +- ``: 名前空間の名前。名前空間が複数レベルある場合は、ドット (`.`) で区切って連結されます - ``: テーブルの名前 例えば、`my_catalog` という名前の ScalarDB カタログに、`my_data_source` という名前のデータソースと `my_schema` という名前のスキーマがある場合、そのスキーマ内の `my_table` という名前のテーブルを `my_catalog.my_data_source.my_schema.my_table` として参照できます。 #### ビュー -ScalarDB Analytics のビューは、ビューではなく Spark カタログのテーブルとして提供されます。ScalarDB Analytics ビューに対応する Spark テーブルの識別子には以下の形式が使用されます: +ScalarDB Analytics のビューは、ビューではなく Spark カタログのテーブルとして提供されます。ScalarDB Analytics ビューに対応する Spark テーブルの識別子には以下の形式が使用されます: ```console .view.. ``` -括弧内の内容は以下の通りです: +括弧内の内容は以下の通りです: - ``: カタログの名前 -- ``: ビュー名前空間の名前。ビュー名前空間が複数レベルある場合は、ドット(`.`)で区切って連結されます +- ``: ビュー名前空間の名前。ビュー名前空間が複数レベルある場合は、ドット (`.`) で区切って連結されます - ``: ビューの名前 例えば、`my_catalog` という名前の ScalarDB カタログと `my_view_namespace` という名前のビュー名前空間がある場合、その名前空間内の `my_view` という名前のビューを `my_catalog.view.my_view_namespace.my_view` として参照できます。 @@ -404,7 +420,7 @@ ScalarDB Analytics のビューは、ビューではなく Spark カタログの ### データ型マッピング -ScalarDB Analytics は、カタログ内のデータ型を Spark データ型にマッピングします。以下の表は、データ型がどのようにマッピングされるかを示しています: +ScalarDB Analytics は、カタログ内のデータ型を Spark データ型にマッピングします。以下の表は、データ型がどのようにマッピングされるかを示しています: | ScalarDB データ型 | Spark データ型 | |:----------------|:-------------------| @@ -434,7 +450,7 @@ Java バージョンに関しては、ScalarDB Analytics は Java 8以降をサ 以下は、ScalarDB Analytics の各バージョンでサポートされている Spark と Scalar のバージョンのリストです。 | ScalarDB Analytics バージョン | ScalarDB バージョン | サポートされている Spark バージョン | サポートされている Scala バージョン | 最小 Java バージョン | -|:---------------------------|:-----------------|:-------------------------|:-------------------------|:---------------------| -| 3.15 | 3.15 | 3.5, 3.4 | 2.13, 2.12 | 8 | -| 3.14 | 3.14 | 3.5, 3.4 | 2.13, 2.12 | 8 | -| 3.12 | 3.12 | 3.5, 3.4 | 2.13, 2.12 | 8 | +|:----------------------------|:------------------|:-------------------------------|:-------------------------------|:-------------------| +| 3.15 | 3.15 | 3.5, 3.4 | 2.13, 2.12 | 8 | +| 3.14 | 3.14 | 3.5, 3.4 | 2.13, 2.12 | 8 | +| 3.12 | 3.12 | 3.5, 3.4 | 2.13, 2.12 | 8 |