diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-and-clickhouse.md
index 0c3e5806f45..4531f3ce176 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-and-clickhouse.md
@@ -11,7 +11,7 @@ integration:
---
import Image from '@theme/IdealImage';
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import looker_01 from '@site/static/images/integrations/data-visualization/looker_01.png';
import looker_02 from '@site/static/images/integrations/data-visualization/looker_02.png';
import looker_03 from '@site/static/images/integrations/data-visualization/looker_03.png';
@@ -19,7 +19,7 @@ import looker_04 from '@site/static/images/integrations/data-visualization/looke
import PartnerBadge from '@theme/badges/PartnerBadge';
-# Looker
+# Looker {#looker}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-studio-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-studio-and-clickhouse.md
index 813199026d8..724c2147ea9 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-studio-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/looker-studio-and-clickhouse.md
@@ -11,8 +11,8 @@ integration:
---
import Image from '@theme/IdealImage';
-import MySQLCloudSetup from '@site/docs/_snippets/_clickhouse_mysql_cloud_setup.mdx';
-import MySQLOnPremiseSetup from '@site/docs/_snippets/_clickhouse_mysql_on_premise_setup.mdx';
+import MySQLCloudSetup from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_clickhouse_mysql_cloud_setup.mdx';
+import MySQLOnPremiseSetup from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_clickhouse_mysql_on_premise_setup.mdx';
import looker_studio_01 from '@site/static/images/integrations/data-visualization/looker_studio_01.png';
import looker_studio_02 from '@site/static/images/integrations/data-visualization/looker_studio_02.png';
import looker_studio_03 from '@site/static/images/integrations/data-visualization/looker_studio_03.png';
@@ -24,7 +24,7 @@ import looker_studio_mysql_cloud from '@site/static/images/integrations/data-vis
import PartnerBadge from '@theme/badges/PartnerBadge';
-# Looker Studio
+# Looker Studio {#looker-studio}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/metabase-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/metabase-and-clickhouse.md
index 1834d5b29d2..4c1f058435e 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/metabase-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/metabase-and-clickhouse.md
@@ -14,7 +14,7 @@ integration:
---
import Image from '@theme/IdealImage';
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import metabase_01 from '@site/static/images/integrations/data-visualization/metabase_01.png';
import metabase_02 from '@site/static/images/integrations/data-visualization/metabase_02.png';
import metabase_03 from '@site/static/images/integrations/data-visualization/metabase_03.png';
@@ -25,7 +25,7 @@ import metabase_08 from '@site/static/images/integrations/data-visualization/met
import PartnerBadge from '@theme/badges/PartnerBadge';
-# Metabase を ClickHouse に接続する
+# Metabase を ClickHouse に接続する {#connecting-metabase-to-clickhouse}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/omni-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/omni-and-clickhouse.md
index 8e9004bb3f0..18f3be7895c 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/omni-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/omni-and-clickhouse.md
@@ -7,14 +7,14 @@ title: 'Omni'
doc_type: 'guide'
---
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import Image from '@theme/IdealImage';
import omni_01 from '@site/static/images/integrations/data-visualization/omni_01.png';
import omni_02 from '@site/static/images/integrations/data-visualization/omni_02.png';
import PartnerBadge from '@theme/badges/PartnerBadge';
-# Omni
+# Omni {#omni}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/powerbi-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/powerbi-and-clickhouse.md
index 8308dd58566..8b81d557a22 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/powerbi-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/powerbi-and-clickhouse.md
@@ -10,7 +10,7 @@ integration:
- category: 'data_visualization'
---
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import Image from '@theme/IdealImage';
import powerbi_odbc_install from '@site/static/images/integrations/data-visualization/powerbi_odbc_install.png';
import powerbi_odbc_search from '@site/static/images/integrations/data-visualization/powerbi_odbc_search.png';
@@ -30,7 +30,7 @@ import powerbi_16 from '@site/static/images/integrations/data-visualization/powe
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# Power BI
+# Power BI {#power-bi}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/quicksight-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/quicksight-and-clickhouse.md
index ee049af14eb..16189d1e1a9 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/quicksight-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/quicksight-and-clickhouse.md
@@ -10,7 +10,7 @@ integration:
- category: 'data_visualization'
---
-import MySQLOnPremiseSetup from '@site/docs/_snippets/_clickhouse_mysql_on_premise_setup.mdx';
+import MySQLOnPremiseSetup from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_clickhouse_mysql_on_premise_setup.mdx';
import Image from '@theme/IdealImage';
import quicksight_01 from '@site/static/images/integrations/data-visualization/quicksight_01.png';
import quicksight_02 from '@site/static/images/integrations/data-visualization/quicksight_02.png';
@@ -22,7 +22,7 @@ import quicksight_07 from '@site/static/images/integrations/data-visualization/q
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# QuickSight
+# QuickSight {#quicksight}
@@ -30,7 +30,7 @@ QuickSight は、公式の MySQL データソースと Direct Query モードを
-## オンプレミス ClickHouse サーバーのセットアップ
+## オンプレミス ClickHouse サーバーのセットアップ {#on-premise-clickhouse-server-setup}
MySQL インターフェイスを有効にした ClickHouse サーバーのセットアップ方法については、[公式ドキュメント](/interfaces/mysql) を参照してください。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/splunk-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/splunk-and-clickhouse.md
index 0ffcb7db4b2..f0594684c0d 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/splunk-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/splunk-and-clickhouse.md
@@ -22,7 +22,7 @@ import splunk_10 from '@site/static/images/integrations/splunk/splunk-10.png';
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# Splunk を ClickHouse に接続する
+# Splunk を ClickHouse に接続する {#connecting-splunk-to-clickhouse}
@@ -83,7 +83,7 @@ DB Connect App がインストールされていることを確認したら、[C
-## ClickHouse 向けに JDBC を設定する
+## ClickHouse 向けに JDBC を設定する {#configure-jdbc-for-clickhouse}
[ClickHouse JDBC driver](https://github.com/ClickHouse/clickhouse-java) をダウンロードし、次のような DB Connect Drivers フォルダに配置します:
@@ -150,7 +150,7 @@ DB Connect App の DataLab セクションにある SQL Explorer で、接続先
-## ダッシュボードを作成する
+## ダッシュボードを作成する {#create-a-dashboard}
SQL と強力な Splunk Processing Language (SPL) を組み合わせて活用するダッシュボードを作成します。
@@ -195,7 +195,7 @@ ORDER BY year, count(*) DESC; " connection="chc"
-## 時系列データ
+## 時系列データ {#time-series-data}
Splunk には、ダッシュボードで時系列データの可視化や表示に利用できる組み込み関数が数百用意されています。ここでは、SQL と SPL を組み合わせて、Splunk で時系列データを扱えるクエリを作成する例を示します。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/superset-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/superset-and-clickhouse.md
index 642868511ad..b00bf1d0acb 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/superset-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/superset-and-clickhouse.md
@@ -13,7 +13,7 @@ integration:
- website: 'https://github.com/ClickHouse/clickhouse-connect'
---
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import Image from '@theme/IdealImage';
import superset_01 from '@site/static/images/integrations/data-visualization/superset_01.png';
import superset_02 from '@site/static/images/integrations/data-visualization/superset_02.png';
@@ -29,7 +29,7 @@ import superset_12 from '@site/static/images/integrations/data-visualization/sup
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# Superset を ClickHouse に接続する
+# Superset を ClickHouse に接続する {#connect-superset-to-clickhouse}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-analysis-tips.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-analysis-tips.md
index 69a90967b67..8a623f3ae76 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-analysis-tips.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-analysis-tips.md
@@ -8,16 +8,14 @@ title: '分析のヒント'
doc_type: 'guide'
---
+# 分析のヒント {#analysis-tips}
-
-# 分析のヒント
-
-## MEDIAN()関数とPERCENTILE()関数
+## MEDIAN()関数とPERCENTILE()関数 {#median-and-percentile-functions}
* Live モードでは、`MEDIAN()` および `PERCENTILE()` 関数(connector v0.1.3 リリース以降)は [ClickHouse quantile()() 関数](/sql-reference/aggregate-functions/reference/quantile/) を使用します。これにより計算が大幅に高速化されますが、サンプリングを行うため近似値となります。正確な計算結果が必要な場合は、`MEDIAN_EXACT()` および `PERCENTILE_EXACT()` 関数([quantileExact()()](/sql-reference/aggregate-functions/reference/quantileexact/) に基づく)を使用してください。
* Extract モードでは MEDIAN_EXACT() と PERCENTILE_EXACT() を使用できません。MEDIAN() と PERCENTILE() は常に厳密な値を返す(その分低速です)ためです。
-## ライブモードの計算フィールドで使用可能な追加関数
+## ライブモードの計算フィールドで使用可能な追加関数 {#additional-functions-for-calculated-fields-in-live-mode}
ClickHouseには、データ分析に使用できる関数が非常に多く、Tableauがサポートする数を大幅に上回ります。 ユーザーの利便性向上のため、計算フィールド作成時にLiveモードで使用可能な新しい関数を追加しました。 残念ながら、Tableauインターフェース内でこれらの関数に説明を追加することができないため、本ドキュメントにて説明を記載します。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-and-clickhouse.md
index 2c523eed9b8..9940113529b 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-and-clickhouse.md
@@ -13,7 +13,7 @@ integration:
---
import TOCInline from '@theme/TOCInline';
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import Image from '@theme/IdealImage';
import tableau_connecttoserver from '@site/static/images/integrations/data-visualization/tableau_connecttoserver.png';
import tableau_connector_details from '@site/static/images/integrations/data-visualization/tableau_connector_details.png';
@@ -30,7 +30,7 @@ import tableau_workbook7 from '@site/static/images/integrations/data-visualizati
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# Tableau を ClickHouse に接続する
+# Tableau を ClickHouse に接続する {#connecting-tableau-to-clickhouse}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-connection-tips.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-connection-tips.md
index a284cb24210..03328e469da 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-connection-tips.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-connection-tips.md
@@ -12,13 +12,13 @@ import Image from '@theme/IdealImage';
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# 接続に関するヒント
+# 接続に関するヒント {#connection-tips}
-## 初期 SQL タブ
+## 初期 SQL タブ {#initial-sql-tab}
[詳細設定] タブで *Set Session ID* チェックボックスが有効になっている場合(デフォルト)、次を使用してセッションレベルの [設定](/operations/settings/settings/) を行うことができます。
@@ -43,7 +43,7 @@ SET my_setting=value;
* **JDBC Driver URL Parameters**。このフィールドには、`jdbcCompliance` などの残りの[ドライバーパラメータ](https://github.com/ClickHouse/clickhouse-jdbc#configuration)を指定できます。パラメータ値は URL エンコード形式で渡す必要がある点に注意してください。また、このフィールドと Advanced タブ内の前のフィールドの両方で `custom_http_params` や `typeMappings` を指定した場合は、Advanced タブ側の前の 2 つのフィールドで指定した値が優先されます。
* **Set Session ID** チェックボックス。Initial SQL タブでセッションレベルの設定を行うために必要であり、`"tableau-jdbc-connector-*{timestamp}*-*{number}*"` という形式で、タイムスタンプと疑似乱数を含む `session_id` を生成します。
-## UInt64, Int128, (U)Int256 データ型のサポート制限
+## UInt64, Int128, (U)Int256 データ型のサポート制限 {#limited-support-for-uint64-int128-uint256-data-types}
デフォルトでは、ドライバーは *UInt64, Int128, (U)Int256* 型のフィールドを文字列として表示するだけで、**変換は行いません**。そのため、次のような計算フィールドを作成しようとすると、エラーが発生します。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-online-and-clickhouse.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-online-and-clickhouse.md
index 1ab1a1d2f99..c80cd34a224 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-online-and-clickhouse.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/data-visualization/tableau/tableau-online-and-clickhouse.md
@@ -8,8 +8,8 @@ title: 'Tableau Online'
doc_type: 'guide'
---
-import MySQLCloudSetup from '@site/docs/_snippets/_clickhouse_mysql_cloud_setup.mdx';
-import MySQLOnPremiseSetup from '@site/docs/_snippets/_clickhouse_mysql_on_premise_setup.mdx';
+import MySQLCloudSetup from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_clickhouse_mysql_cloud_setup.mdx';
+import MySQLOnPremiseSetup from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_clickhouse_mysql_on_premise_setup.mdx';
import Image from '@theme/IdealImage';
import tableau_online_01 from '@site/static/images/integrations/data-visualization/tableau_online_01.png';
import tableau_online_02 from '@site/static/images/integrations/data-visualization/tableau_online_02.png';
@@ -22,7 +22,7 @@ import tableau_desktop_04 from '@site/static/images/integrations/data-visualizat
import tableau_desktop_05 from '@site/static/images/integrations/data-visualization/tableau_desktop_05.png';
-# Tableau Online
+# Tableau Online {#tableau-online}
Tableau Online は、公式の MySQL データソースを利用し、MySQL インターフェース経由で ClickHouse Cloud またはオンプレミス環境の ClickHouse に接続できます。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/index.mdx b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/index.mdx
index 38418f5026f..1a44c4974a8 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/index.mdx
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/index.mdx
@@ -10,8 +10,7 @@ hide_table_of_contents: true
import { IntegrationGrid } from '@site/src/components/IntegrationGrid';
-
-# インテグレーション
+# インテグレーション \{#integrations\}
ClickHouse をお好みのツールやサービスと連携させて、強力なデータパイプラインと分析ワークフローを構築します。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/csharp.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/csharp.md
index 71e79f325da..887b3ae0530 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/csharp.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/csharp.md
@@ -12,7 +12,7 @@ integration:
- website: 'https://github.com/ClickHouse/clickhouse-cs'
---
-# ClickHouse C# クライアント
+# ClickHouse C# クライアント {#clickhouse-c-client}
ClickHouse に接続するための公式の C# クライアントです。
クライアントのソースコードは [GitHub リポジトリ](https://github.com/ClickHouse/clickhouse-cs) で公開されています。
@@ -39,7 +39,7 @@ ClickHouse に接続するための公式の C# クライアントです。
---
-## インストール
+## インストール {#installation}
NuGet からパッケージをインストールします:
@@ -56,7 +56,7 @@ Install-Package ClickHouse.Driver
***
-## クイックスタート
+## クイックスタート {#quick-start}
```csharp
using ClickHouse.Driver.ADO;
@@ -133,7 +133,7 @@ DI 環境向けには、HTTP クライアントの設定を共通化できる専
---
-### テーブルの作成
+### テーブルの作成 {#creating-a-table}
標準的な SQL 構文を使用してテーブルを作成します。
@@ -155,7 +155,7 @@ using (var connection = new ClickHouseConnection(connectionString))
***
-### データの挿入
+### データの挿入 {#inserting-data}
パラメータ化されたクエリを使用してデータを挿入します。
@@ -179,7 +179,7 @@ using (var connection = new ClickHouseConnection(connectionString))
***
-### 一括挿入
+### 一括挿入 {#bulk-insert}
`ClickHouseBulkCopy` を使用するには、次のものが必要です:
@@ -222,7 +222,7 @@ Console.WriteLine($"Rows written: {bulkCopy.RowsWritten}");
***
-### SELECT クエリの実行
+### SELECT クエリの実行 {#performing-select-queries}
SELECT クエリを実行して結果を処理します。
@@ -250,7 +250,7 @@ using (var connection = new ClickHouseConnection(connectionString))
***
-### 生データストリーミング
+### 生データストリーミング {#raw-streaming}
```csharp
using var command = connection.CreateCommand();
@@ -264,7 +264,7 @@ var json = reader.ReadToEnd();
***
-### ネストされたカラムのサポート
+### ネストされたカラムのサポート {#nested-columns}
ClickHouse のネスト型(`Nested(...)`)は、配列と同様のセマンティクスで読み書きできます。
@@ -290,7 +290,7 @@ await bulkCopy.WriteToServerAsync(new[] { row1, row2 });
***
-### AggregateFunction 列
+### AggregateFunction 列 {#aggregatefunction-columns}
`AggregateFunction(...)` 型の列は、直接クエリしたりデータを挿入したりすることはできません。
@@ -309,7 +309,7 @@ SELECT uniqMerge(c) FROM t;
***
-### SQL パラメータ
+### SQL パラメータ {#sql-parameters}
クエリにパラメータを渡すには、次の形式で ClickHouse のパラメータ書式を使用する必要があります。
@@ -433,7 +433,7 @@ ClickHouse の .NET クライアントは `Microsoft.Extensions.Logging` の抽
### クイックスタート {#logging-quick-start}
-#### ClickHouseConnection の使用
+#### ClickHouseConnection の使用 {#logging-clickhouseconnection}
```csharp
using ClickHouse.Driver.ADO;
@@ -456,7 +456,7 @@ await connection.OpenAsync();
```
-#### appsettings.json の使用
+#### appsettings.json の使用 {#logging-appsettings-config}
標準的な .NET の構成機能を使用してログレベルを設定できます。
@@ -487,7 +487,7 @@ await connection.OpenAsync();
```
-#### インメモリ設定を使用する
+#### インメモリ設定を使用する {#logging-inmemory-config}
コード内でカテゴリごとにログ出力の詳細度を設定することもできます。
@@ -535,7 +535,7 @@ await connection.OpenAsync();
| `ClickHouse.Driver.Transport` | `ClickHouseConnection` | 低レベルの HTTP ストリーミングリクエスト、圧縮フラグ、レスポンスステータスコード、転送エラー。 |
| `ClickHouse.Driver.BulkCopy` | `ClickHouseBulkCopy` | メタデータの読み込み、バッチ処理、行数、アップロード完了。 |
-#### 例:接続に関する問題の診断
+#### 例:接続に関する問題の診断 {#logging-config-example}
```json
{
@@ -559,7 +559,7 @@ await connection.OpenAsync();
* セッション ID の追跡
-### デバッグモード: ネットワークトレースと診断
+### デバッグモード: ネットワークトレースと診断 {#logging-debugmode}
ネットワークに関する問題の診断を支援するために、ドライバーライブラリには .NET のネットワーク内部処理を低レベルでトレースできるヘルパー機能が含まれています。これを有効にするには、ログレベルを Trace に設定した LoggerFactory を渡し、EnableDebugMode を true に設定する必要があります(または `ClickHouse.Driver.Diagnostic.TraceHelper` クラスを使用して手動で有効化します)。警告: これは非常に冗長なログを大量に生成し、パフォーマンスに影響します。本番環境でデバッグモードを有効にすることは推奨されません。
@@ -581,7 +581,7 @@ var settings = new ClickHouseClientSettings()
***
-### ORM & Dapper サポート
+### ORM & Dapper サポート {#orm-support}
`ClickHouse.Driver` は Dapper(いくつかの制限付きで)をサポートします。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/go/index.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/go/index.md
index 12347933971..b39e5da02b3 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/go/index.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/go/index.md
@@ -11,10 +11,10 @@ integration:
- category: 'language_client'
---
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_native.md';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_native.md';
-# ClickHouse Go
+# ClickHouse Go {#clickhouse-go}
## 簡単な例 {#a-simple-example}
@@ -24,7 +24,7 @@ import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_native.
-### モジュールを初期化する
+### モジュールを初期化する {#initialize-a-module}
```bash
mkdir clickhouse-golang-example
@@ -33,7 +33,7 @@ go mod init clickhouse-golang-example
```
-### サンプルコードをコピーする
+### サンプルコードをコピーする {#copy-in-some-sample-code}
このコードを `clickhouse-golang-example` ディレクトリに `main.go` として保存します。
@@ -114,14 +114,14 @@ func connect() (driver.Conn, error) {
```
-### go mod tidy を実行する
+### go mod tidy を実行する {#run-go-mod-tidy}
```bash
go mod tidy
```
-### 接続情報を設定する
+### 接続情報を設定する {#set-your-connection-details}
先ほど接続情報を確認しました。その値を `main.go` の `connect()` 関数内で設定します。
@@ -142,7 +142,7 @@ func connect() (driver.Conn, error) {
```
-### サンプルを実行する
+### サンプルを実行する {#run-the-example}
```bash
go run .
@@ -201,7 +201,7 @@ clickhouse-go クライアントは、ClickHouse と通信するために 2 つ
| ClickHouse API | ✅ | ✅ | | ✅ | ✅ | ✅ | ✅ |
| `database/sql` API | ✅ | ✅ | ✅ | ✅ | | ✅ | ✅ |
-## インストール
+## インストール {#installation}
ドライバーの v1 は非推奨となっており、新しい ClickHouse 型へのサポートや機能更新は行われません。より高いパフォーマンスを提供する v2 への移行が推奨されます。
@@ -271,7 +271,7 @@ go run main.go
ClickHouse クライアント API のすべてのコード例は[こちら](https://github.com/ClickHouse/clickhouse-go/tree/main/examples)で確認できます。
-### 接続
+### 接続 {#connecting}
次の例はサーバーバージョンを返すもので、ClickHouse がセキュリティ保護されておらず、デフォルトユーザーでアクセス可能であることを前提に、ClickHouse への接続方法を示します。
@@ -298,7 +298,7 @@ fmt.Println(v)
**以降のすべてのサンプルでは、特に明記がない限り、ClickHouse の `conn` 変数はすでに作成済みで利用可能であるものとします。**
-#### 接続設定
+#### 接続設定 {#connection-settings}
接続を開く際、`Options` 構造体を使用してクライアントの動作を制御できます。利用可能な設定は次のとおりです。
@@ -364,7 +364,7 @@ if err != nil {
また、`ConnMaxLifetime` はデフォルトで 1 時間である点に注意してください。これは、ノードがクラスタから離脱した場合に ClickHouse への負荷が不均衡になる原因となる可能性があります。ノードが利用不能になると、コネクションは他のノードへ分散されます。これらのコネクションは、問題のあるノードがクラスタに復帰したとしても、デフォルトでは 1 時間は維持され、再確立されません。高負荷なワークロードの場合には、この値を下げることを検討してください。
-### TLS の使用
+### TLS の使用 {#using-tls}
内部的には、すべてのクライアント接続メソッド(`DSN/OpenDB/Open`)はセキュアな接続を確立するために [Go の tls パッケージ](https://pkg.go.dev/crypto/tls) を使用します。Options 構造体に `nil` ではない `tls.Config` ポインタが含まれている場合、クライアントは TLS を使用すべきことを認識します。
@@ -434,7 +434,7 @@ v, err := conn.ServerVersion()
追加の TLS パラメータが必要な場合は、アプリケーションコード側で `tls.Config` 構造体の該当フィールドを設定する必要があります。これには、特定の暗号スイートの指定、特定の TLS バージョン (1.2 や 1.3 など) の強制、内部 CA 証明書チェーンの追加、ClickHouse サーバーによって要求される場合のクライアント証明書 (および秘密鍵) の追加など、より高度なセキュリティ構成で利用されるほとんどのオプションが含まれます。
-### 認証
+### 認証 {#authentication}
接続設定で `Auth` 構造体を指定し、ユーザー名とパスワードを設定します。
@@ -457,7 +457,7 @@ v, err := conn.ServerVersion()
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/auth.go)
-### 複数ノードへの接続
+### 複数ノードへの接続 {#connecting-to-multiple-nodes}
複数のアドレスを `Addr` 構造体で指定できます。
@@ -511,7 +511,7 @@ if err != nil {
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/1c0d81d0b1388dbb9e09209e535667df212f4ae4/examples/clickhouse_api/multi_host.go#L50-L67)
-### 実行
+### 実行 {#execution}
任意のステートメントは `Exec` メソッドで実行できます。これは DDL や簡単なステートメントを実行する場合に便利です。大量データの挿入やクエリの反復実行には使用すべきではありません。
@@ -534,7 +534,7 @@ conn.Exec(context.Background(), "INSERT INTO example VALUES (1, 'test-1')")
クエリに `Context` を渡せることに注意してください。これは、クエリごとの特定の設定を渡すために使用できます。詳しくは [Using Context](#using-context) を参照してください。
-### バッチ挿入
+### バッチ挿入 {#batch-insert}
多数の行を挿入するには、クライアントはバッチ挿入用のセマンティクスを提供します。そのためには、行を追加していくためのバッチを事前に用意する必要があります。最終的にこのバッチは `Send()` メソッド経由で送信されます。バッチは `Send` が実行されるまでメモリ上に保持されます。
@@ -627,7 +627,7 @@ return batch.Send()
各カラム型ごとにサポートされる Go 型の一覧については、[型変換](#type-conversions) を参照してください。
-### 行のクエリ実行
+### 行のクエリ実行 {#querying-rows}
ユーザーは、`QueryRow` メソッドを使用して 1 行だけを取得するか、`Query` を使用して結果セットを反復処理するためのカーソルを取得できます。前者はシリアライズ結果の格納先を引数として受け取りますが、後者では各行に対して `Scan` を呼び出す必要があります。
@@ -678,7 +678,7 @@ return rows.Err()
最後に、`Query` および `QueryRow` メソッドに `Context` を渡すことができる点に注意してください。これはクエリレベルの設定に利用できます。詳細については [Using Context](#using-context) を参照してください。
-### 非同期挿入
+### 非同期挿入 {#async-insert}
非同期挿入は Async メソッドで利用できます。これにより、クライアントがサーバー側で挿入処理の完了を待機するか、データが受信された時点で応答を返すかを指定できます。これは実質的にパラメータ [wait_for_async_insert](/operations/settings/settings#wait_for_async_insert) の挙動を制御します。
@@ -718,7 +718,7 @@ for i := 0; i < 100; i++ {
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/async.go)
-### カラム単位の挿入
+### カラム単位の挿入 {#columnar-insert}
データはカラム形式で挿入できます。データがすでにこの構造で用意されている場合、行形式への変換が不要になるため、パフォーマンス上の利点が得られることがあります。
@@ -764,7 +764,7 @@ return batch.Send()
ユーザーにとって、Go 言語の struct は ClickHouse における 1 行分のデータを論理的に表現する手段となります。これを支援するために、ネイティブインターフェイスはいくつかの便利な関数を提供しています。
-#### serialize を使用した Select
+#### serialize を使用した Select {#select-with-serialize}
Select メソッドを使うと、1 回の呼び出しでレスポンスの行セットを構造体のスライスへマーシャリングできます。
@@ -787,7 +787,7 @@ for _, v := range result {
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/select_struct.go)
-#### 構造体のスキャン
+#### 構造体のスキャン {#scan-struct}
`ScanStruct` を使用すると、クエリ結果の単一の Row を構造体にマッピングできます。
@@ -804,7 +804,7 @@ if err := conn.QueryRow(context.Background(), "SELECT Col1, COUNT() AS count FRO
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/scan_struct.go)
-#### Append struct
+#### Append struct {#append-struct}
`AppendStruct` を使用すると、既存の[バッチ](#batch-insert)に構造体を追加し、それを 1 行分の完全なレコードとして解釈できます。これには、構造体の列がテーブルの列と名前・型の両方で一致している必要があります。すべての列に対応する構造体フィールドが存在している必要がありますが、一部の構造体フィールドには対応する列が存在しない場合があります。そのようなフィールドは単に無視されます。
@@ -855,7 +855,7 @@ ClickHouse の Go クライアントは、`Date`、`Date32`、`DateTime`、`Date
* **挿入** 時には、任意の日付について、その日付を Unix タイムスタンプに変換する際にタイムゾーンが考慮されます。つまり、Date 型にはロケール情報がないため、日付として保存する前に、そのタイムゾーンを考慮してオフセットされます。文字列値でタイムゾーンが明示されていない場合は、ローカルタイムゾーンが使用されます。
* **select** 時には、日付は `time.Time{}` または `sql.NullTime{}` インスタンスにスキャンされ、タイムゾーン情報なしで返されます。
-#### Array
+#### Array {#array}
配列はスライスとして挿入する必要があります。要素の型付けのルールは [primitive type](#type-conversions) の場合と同じであり、可能な場合は要素が変換されます。
@@ -901,7 +901,7 @@ rows.Close()
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/array.go)
-#### Map
+#### Map {#map}
Map 型の値は、キーと値が[前述](#type-conversions)の型ルールに従う Golang の map として挿入します。
@@ -947,7 +947,7 @@ rows.Close()
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/map.go)
-#### Tuples
+#### Tuples {#tuples}
Tuple は任意の長さのカラムのグループを表します。各カラムは明示的に名前を付けることも、型だけを指定することもできます(例: )。
@@ -1009,7 +1009,7 @@ fmt.Printf("row: col1=%v, col2=%v, col3=%v\n", col1, col2, col3)
注意: 名前付きタプル内のサブカラムがすべて同じ型である場合、型付きスライスおよびマップがサポートされます。
-#### Nested
+#### Nested {#nested}
Nested フィールドは、名前付き Tuple の配列に相当します。利用方法は、ユーザーが [flatten_nested](/operations/settings/settings#flatten_nested) を 1 にしているか 0 にしているかによって異なります。
@@ -1188,7 +1188,7 @@ if err := batch.Send(); err != nil {
よりシンプルなインターフェースとネストに対する公式なサポートがあるため、`flatten_nested=0` の使用を推奨します。
-#### Geo 型
+#### Geo 型 {#geo-types}
クライアントは Geo 型である Point、Ring、Polygon、Multi Polygon をサポートしています。これらのフィールドは、Go 言語ではパッケージ [github.com/paulmach/orb](https://github.com/paulmach/orb) を使用して表現されます。
@@ -1272,7 +1272,7 @@ if err = conn.QueryRow(ctx, "SELECT * FROM example").Scan(&point, &ring, &polygo
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/geo.go)
-#### UUID
+#### UUID {#uuid}
UUID 型は [github.com/google/uuid](https://github.com/google/uuid) パッケージでサポートされています。また、UUID は文字列、または `sql.Scanner` もしくは `Stringify` を実装する任意の型として送信およびマーシャリングすることもできます。
@@ -1318,7 +1318,7 @@ if err = conn.QueryRow(ctx, "SELECT * FROM example").Scan(&col1, &col2); err !=
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/uuid.go)
-#### Decimal
+#### Decimal {#decimal}
Decimal 型は [github.com/shopspring/decimal](https://github.com/shopspring/decimal) パッケージによってサポートされています。
@@ -1372,7 +1372,7 @@ fmt.Printf("col1=%v, col2=%v, col3=%v, col4=%v, col5=%v\n", col1, col2, col3, co
[完全なサンプルコード](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/decimal.go)
-#### Nullable
+#### Nullable {#nullable}
`Nil` の Go 値は ClickHouse の `NULL` を表します。これはフィールドが `Nullable` として宣言されている場合に使用できます。挿入時には、非 Nullable のカラムと Nullable のカラムの両方に対して `Nil` を渡すことができます。前者の場合、その型のデフォルト値が永続化されます(例: `string` 型であれば空文字列)。後者の Nullable カラムの場合は、ClickHouse に `NULL` 値が保存されます。
@@ -1427,7 +1427,7 @@ if err = conn.QueryRow(ctx, "SELECT * FROM example").Scan(&col1, &col2, &col3, &
クライアントはこれに加えて、`sql.Null*` 型(例: `sql.NullInt64`)もサポートしています。これらは対応する ClickHouse の型と互換性があります。
-#### ビッグ整数 - Int128, Int256, UInt128, UInt256
+#### ビッグ整数 - Int128, Int256, UInt128, UInt256 {#big-ints---int128-int256-uint128-uint256}
64 ビットを超える数値型は、Go 標準の [big](https://pkg.go.dev/math/big) パッケージで表現されます。
@@ -1498,7 +1498,7 @@ fmt.Printf("col1=%v, col2=%v, col3=%v, col4=%v, col5=%v, col6=%v, col7=%v\n", co
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/big_int.go)
-### 圧縮
+### 圧縮 {#compression}
サポートされる圧縮方式は、使用する下位プロトコルに依存します。ネイティブプロトコルの場合、クライアントは `LZ4` と `ZSTD` 圧縮をサポートします。圧縮はブロックレベルでのみ行われます。接続に `Compression` 設定を含めることで圧縮を有効にできます。
@@ -1548,7 +1548,7 @@ if err := batch.Send(); err != nil {
標準インターフェースを HTTP 経由で使用する場合は、追加の圧縮方式を利用できます。詳細は [database/sql API - Compression](#compression) を参照してください。
-### パラメータバインディング
+### パラメータバインディング {#parameter-binding}
クライアントは `Exec`、`Query`、`QueryRow` メソッドに対してパラメータバインディングをサポートします。次の例のように、名前付きパラメータ、番号付きパラメータ、位置パラメータを利用できます。以下でそれぞれの例を示します。
@@ -1577,7 +1577,7 @@ fmt.Printf("名前付きバインドのカウント: %d\n", count)
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/bind.go)
-#### 特殊なケース
+#### 特殊なケース {#special-cases}
デフォルトでは、スライスをクエリのパラメータとして渡した場合、値のカンマ区切りリストに展開されます。角括弧 `[ ]` で囲まれた値の集合として埋め込みたい場合は、`ArraySet` を使用する必要があります。
@@ -1617,7 +1617,7 @@ fmt.Printf("NamedDate のカウント: %d\n", count)
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/bind_special.go)
-### コンテキストの利用
+### コンテキストの利用 {#using-context}
Go の context は、期限(デッドライン)、キャンセルシグナル、その他のリクエストスコープの値を API 境界をまたいで受け渡す手段を提供します。コネクションのすべてのメソッドは、最初の引数として context を受け取ります。前の例では `context.Background()` を使用していましたが、この仕組みを利用して設定やデッドラインを渡したり、クエリをキャンセルしたりできます。
@@ -1718,7 +1718,7 @@ for i := 1; i <= 6; i++ {
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/context.go)
-### 進捗 / プロファイル / ログ情報
+### 進捗 / プロファイル / ログ情報 {#progressprofilelog-information}
クエリに対して、Progress、Profile、Log の情報を要求できます。Progress 情報は、ClickHouse 内で読み取りおよび処理された行数とバイト数に関する統計を報告します。一方、Profile 情報はクライアントに返されたデータの概要を提供し、(非圧縮の)バイト数、行数、およびブロック数の合計を含みます。最後に、Log 情報は、メモリ使用量やデータ処理速度などのスレッドに関する統計を提供します。
@@ -1750,7 +1750,7 @@ rows.Close()
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/progress.go)
-### 動的スキャン
+### 動的スキャン {#dynamic-scanning}
返されるフィールドのスキーマや型が分からないテーブルを読み取る必要がある場合があります。これは、アドホックなデータ分析を行う場合や、汎用的なツールを作成する場合によくあります。そのため、クエリのレスポンスには列の型情報が含まれています。これを Go のリフレクションと組み合わせることで、実行時に正しい型の変数インスタンスを生成し、それらを Scan に渡すことができます。
@@ -1789,7 +1789,7 @@ for rows.Next() {
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/dynamic_scan_types.go)
-### 外部テーブル
+### 外部テーブル {#external-tables}
[外部テーブル](/engines/table-engines/special/external-data/) を使用すると、クライアントは SELECT クエリとともにデータを ClickHouse に送信できます。このデータは一時テーブルに格納され、評価のためにクエリ自体の中で使用できます。
@@ -1856,7 +1856,7 @@ fmt.Printf("external_table_1 UNION external_table_2: %d\n", count)
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/clickhouse_api/external_data.go)
-### OpenTelemetry
+### OpenTelemetry {#open-telemetry}
ClickHouse では、ネイティブプロトコルの一部として [トレースコンテキスト](/operations/opentelemetry/) を渡せます。クライアントは、関数 `clickhouse.withSpan` を使用して Span を作成し、これを Context 経由で渡すことで、この機能を利用できます。
@@ -1889,7 +1889,7 @@ fmt.Printf("count: %d\n", count)
標準 API 向けの完全なコード例は[こちら](https://github.com/ClickHouse/clickhouse-go/tree/main/examples/std)で確認できます。
-### 接続
+### 接続 {#connecting-1}
接続は、`clickhouse://
:?=` という形式の DSN 文字列と `Open` メソッドを使用するか、`clickhouse.OpenDB` メソッドを使用することで行えます。後者は `database/sql` 仕様の一部ではありませんが、`sql.DB` インスタンスを返します。このメソッドでは、`database/sql` 仕様では明確な公開手段がないプロファイリングなどの機能も利用できます。
@@ -1928,7 +1928,7 @@ func ConnectDSN() error {
**以降のすべてのサンプルでは、特に断りのない限り、ClickHouse の `conn` 変数はすでに作成されており、利用可能であるものとします。**
-#### 接続設定
+#### 接続設定 {#connection-settings-1}
以下のパラメータを DSN 文字列で指定できます:
@@ -1971,7 +1971,7 @@ func ConnectSettings() error {
ユーザーは、[複数ノードへの接続](#connecting-to-multiple-nodes)で説明されているように、提供されたノードアドレス一覧の使われ方を制御できます。ただし、接続管理およびプーリングは、設計上 `sql.DB` に委任されています。
-#### HTTP 経由で接続する
+#### HTTP 経由で接続する {#connecting-over-http}
デフォルトでは、接続はネイティブプロトコルで確立されます。HTTP を利用する必要がある場合は、DSN を変更して HTTP プロトコルを指定するか、接続オプションで Protocol を指定して有効化できます。
@@ -2009,7 +2009,7 @@ func ConnectDSNHTTP() error {
[完全なサンプルコード](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/connect_http.go)
-#### 複数ノードへの接続
+#### 複数ノードへの接続 {#connecting-to-multiple-nodes-1}
`OpenDB` を使用する場合は、ClickHouse API と同じオプション指定方法で複数のホストに接続し、必要に応じて `ConnOpenStrategy` を指定します。
@@ -2057,7 +2057,7 @@ func MultiStdHostDSN() error {
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/multi_host.go)
-### TLS の使用
+### TLS の使用 {#using-tls-1}
DSN 接続文字列を使用する場合は、パラメータ `secure=true` によって SSL を有効化できます。`OpenDB` メソッドは、非 nil の TLS struct を指定するという点で、[TLS 用のネイティブ API](#using-tls) と同じアプローチを取ります。DSN 接続文字列では SSL 検証をスキップするためのパラメータ `skip_verify` がサポートされていますが、より高度な TLS 設定を行うには、設定を渡すことができる `OpenDB` メソッドを使用する必要があります。
@@ -2111,7 +2111,7 @@ func ConnectDSNSSL() error {
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/ssl.go)
-### 認証
+### 認証 {#authentication-1}
`OpenDB` を使用する場合は、通常どおりオプションで認証情報を渡すことができます。DSN ベースの接続の場合、ユーザー名とパスワードは接続文字列内で指定できます。パラメーターとして渡すか、アドレスに資格情報としてエンコードして含めることができます。
@@ -2152,7 +2152,7 @@ func ConnectDSNAuth() error {
[完全な例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/auth.go)
-### 実行
+### 実行 {#execution-1}
接続を取得したら、ユーザーは Exec メソッドで `sql` ステートメントを実行できます。
@@ -2175,7 +2175,7 @@ _, err = conn.Exec("INSERT INTO example VALUES (1, 'test-1')")
このメソッドは context の受け取りをサポートしていません。デフォルトでは background context で実行されます。必要な場合は `ExecContext` を使用してください。詳しくは [Using Context](#using-context) を参照してください。
-### バッチ挿入
+### バッチ挿入 {#batch-insert-1}
バッチ挿入は、`Being` メソッドで `sql.Tx` を作成することで実現できます。そこから、`INSERT` 文を指定して `Prepare` メソッドを呼び出すことでバッチを取得できます。これにより `sql.Stmt` が返され、`Exec` メソッドを使って行を追加していくことができます。バッチは、元の `sql.Tx` に対して `Commit` が実行されるまでメモリ上に蓄積されます。
@@ -2210,7 +2210,7 @@ return scope.Commit()
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/batch.go)
-### 行のクエリ実行
+### 行のクエリ実行 {#querying-rows-1}
単一行のクエリは `QueryRow` メソッドを使って実行できます。これは *sql.Row を返し、その上で `Scan` をポインタを渡した変数に対して呼び出すことで、列の値をそれらの変数に詰め替えることができます。`QueryRowContext` バリアントを使用すると、バックグラウンド以外の context を渡すことができます。詳しくは [Using Context](#using-context) を参照してください。
@@ -2257,7 +2257,7 @@ for rows.Next() {
[完全なコード例](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/query_rows.go)
-### 非同期 Insert
+### 非同期 Insert {#async-insert-1}
非同期 insert は、`ExecContext` メソッドで insert を実行することで実現できます。その際、以下の例のように非同期モードを有効にした context を渡す必要があります。これにより、クライアントがサーバーによる insert の完了を待つか、データが受信された時点で応答するかをユーザーが指定できるようになります。これは実質的にパラメータ [wait_for_async_insert](/operations/settings/settings#wait_for_async_insert) を制御します。
@@ -2305,7 +2305,7 @@ ctx := clickhouse.Context(context.Background(), clickhouse.WithStdAsync(false))
特に断りがない限り、複合型の扱いは [ClickHouse API](#complex-types) と同様です。差異は `database/sql` の内部実装によるものです。
-#### マップ
+#### マップ {#maps}
ClickHouse の API と異なり、標準 API ではマップに対してスキャン時の型を厳密に指定する必要があります。例えば、`Map(String,String)` フィールドに `map[string]interface{}` を渡すことはできず、代わりに `map[string]string` を使用する必要があります。`interface{}` 変数は常に互換性があり、より複雑な構造に利用できます。構造体は読み取り時にはサポートされません。
@@ -2353,7 +2353,7 @@ fmt.Printf("col1=%v, col2=%v, col3=%v, col4=%v, col5=%v", col1, col2, col3, col4
Insert の動作は ClickHouse API と同じです。
-### 圧縮
+### 圧縮 {#compression-1}
標準 API は、ネイティブの [ClickHouse API](#compression) と同じ圧縮アルゴリズムをサポートしており、ブロック単位の `lz4` および `zstd` 圧縮を利用できます。さらに、HTTP 接続では gzip、deflate、br 圧縮もサポートされます。これらのいずれかが有効になっている場合、挿入時およびクエリレスポンスに対してブロック単位で圧縮が行われます。その他のリクエスト(例:ping リクエストやクエリの送信)は非圧縮のままです。これは `lz4` および `zstd` オプションの挙動と一貫しています。
@@ -2391,7 +2391,7 @@ conn, err := sql.Open("clickhouse", fmt.Sprintf("http://%s:%d?username=%s&passwo
* `zstd`, `lz4` - 無視されます
-### パラメータバインディング
+### パラメータバインディング {#parameter-binding-1}
標準 API では [ClickHouse API](#parameter-binding) と同じパラメータバインディング機能がサポートされており、`Exec`、`Query`、`QueryRow` メソッド(およびそれらに対応する [Context](#using-context) 版)にパラメータを渡すことができます。位置指定パラメータ、名前付きパラメータ、および番号付きパラメータがサポートされています。
@@ -2422,7 +2422,7 @@ fmt.Printf("名前付きバインドのカウント: %d\n", count)
なお、[特殊ケース](#special-cases) は引き続き有効です。
-### コンテキストの使用
+### コンテキストの使用 {#using-context-1}
標準 API は、[ClickHouse API](#using-context) と同様に、コンテキストを介して期限、キャンセルシグナル、その他のリクエストスコープの値を渡す機能をサポートします。ClickHouse API と異なり、これはメソッドの `Context` 付きバリアントを使用することで実現されます。つまり、デフォルトではバックグラウンドコンテキストを使用する `Exec` のようなメソッドには、最初の引数としてコンテキストを渡せる `ExecContext` というバリアントが用意されています。これにより、アプリケーションフローの任意の段階でコンテキストを渡すことができます。例えば、`ConnContext` を使用して接続を確立する際や、`QueryRowContext` を使用してクエリの行を取得する際にコンテキストを渡すことができます。利用可能なすべてのメソッドの例を以下に示します。
@@ -2510,7 +2510,7 @@ for rows.Next() {
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/context.go)
-### セッション
+### セッション {#sessions}
ネイティブ接続では暗黙的にセッションが存在しますが、HTTP 経由の接続では、コンテキストを設定として渡すためにユーザーがセッション ID を作成する必要があります。これにより、セッションに紐づく一時テーブルなどの機能を利用できるようになります。
@@ -2572,7 +2572,7 @@ for rows.Next() {
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/session.go)
-### 動的スキャン
+### 動的スキャン {#dynamic-scanning-1}
[ClickHouse API](#dynamic-scanning) と同様に、カラム型の情報を利用できるため、ユーザーは実行時に正しい型の変数のインスタンスを作成し、それを Scan に渡すことができます。これにより、事前に型が分からないカラムでも読み取ることが可能になります。
@@ -2612,7 +2612,7 @@ for rows.Next() {
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/dynamic_scan_types.go)
-### 外部テーブル
+### 外部テーブル {#external-tables-1}
[外部テーブル](/engines/table-engines/special/external-data/) を使用すると、クライアントは `SELECT` クエリと一緒にデータを ClickHouse に送信できます。このデータは一時テーブルに格納され、クエリ内で評価に利用できます。
@@ -2679,7 +2679,7 @@ fmt.Printf("external_table_1 UNION external_table_2: %d\n", count)
[完全なサンプル](https://github.com/ClickHouse/clickhouse-go/blob/main/examples/std/external_data.go)
-### OpenTelemetry
+### OpenTelemetry {#open-telemetry-1}
ClickHouse では、ネイティブプロトコルの一部として [trace context](/operations/opentelemetry/) を渡すことが可能です。クライアントは、関数 `clickhouse.withSpan` を使用して Span を作成し、Context 経由で渡すことでこれを実現できます。この機能は、HTTP をトランスポートとして使用している場合にはサポートされません。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_7.mdx b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_7.mdx
index 51cbc047873..80de0c5a27a 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_7.mdx
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_7.mdx
@@ -7,72 +7,65 @@ DBサーバーとそのプロトコルを通じて通信するための Java ク
このライブラリは近日中に非推奨となる予定です。新規プロジェクトでは最新の [Java Client](/integrations/language-clients/java/client/client.mdx) を使用してください。
:::
-
## セットアップ \{#setup\}
-
-
-```xml
-
-
- com.clickhouse
- clickhouse-http-client
- 0.7.2
-
-```
-
-
-
-
-```kotlin
-// https://mvnrepository.com/artifact/com.clickhouse/clickhouse-http-client
-implementation("com.clickhouse:clickhouse-http-client:0.7.2")
-```
-
-
+
+ ```xml
+
+
+ com.clickhouse
+ clickhouse-http-client
+ 0.7.2
+
+ ```
+
-```groovy
-// https://mvnrepository.com/artifact/com.clickhouse/clickhouse-http-client
-implementation 'com.clickhouse:clickhouse-http-client:0.7.2'
-```
+
+ ```kotlin
+ // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-http-client
+ implementation("com.clickhouse:clickhouse-http-client:0.7.2")
+ ```
+
-
+
+ ```groovy
+ // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-http-client
+ implementation 'com.clickhouse:clickhouse-http-client:0.7.2'
+ ```
+
バージョン `0.5.0` 以降、このドライバーは新しい HTTP クライアントライブラリを使用しているため、別途依存関係として追加する必要があります。
-
-
-```xml
-
-
- org.apache.httpcomponents.client5
- httpclient5
- 5.3.1
-
-```
-
-
-
-
-```kotlin
-// https://mvnrepository.com/artifact/org.apache.httpcomponents.client5/httpclient5
-implementation("org.apache.httpcomponents.client5:httpclient5:5.3.1")
-```
-
-
+
+ ```xml
+
+
+ org.apache.httpcomponents.client5
+ httpclient5
+ 5.3.1
+
+ ```
+
-```groovy
-// https://mvnrepository.com/artifact/org.apache.httpcomponents.client5/httpclient5
-implementation 'org.apache.httpcomponents.client5:httpclient5:5.3.1'
-```
+
+ ```kotlin
+ // https://mvnrepository.com/artifact/org.apache.httpcomponents.client5/httpclient5
+ implementation("org.apache.httpcomponents.client5:httpclient5:5.3.1")
+ ```
+
-
+
+ ```groovy
+ // https://mvnrepository.com/artifact/org.apache.httpcomponents.client5/httpclient5
+ implementation 'org.apache.httpcomponents.client5:httpclient5:5.3.1'
+ ```
+
-## 初期化
+## 初期化 \{#initialization\}
接続 URL の形式は `protocol://host[:port][/database][?param[=value][¶m[=value]][#tag[,tag]]` です。例:
@@ -93,8 +86,7 @@ ClickHouseNodes servers = ClickHouseNodes.of(
+ "?load_balancing_policy=random&health_check_interval=5000&failover=2");
```
-
-## クエリ API
+## クエリ API \{#query-api\}
```java showLineNumbers
try (ClickHouseClient client = ClickHouseClient.newInstance(ClickHouseProtocol.HTTP);
@@ -108,8 +100,7 @@ try (ClickHouseClient client = ClickHouseClient.newInstance(ClickHouseProtocol.H
}
```
-
-## ストリーミングクエリAPI
+## ストリーミングクエリAPI \{#streaming-query-api\}
```java showLineNumbers
try (ClickHouseClient client = ClickHouseClient.newInstance(ClickHouseProtocol.HTTP);
@@ -129,8 +120,7 @@ try (ClickHouseClient client = ClickHouseClient.newInstance(ClickHouseProtocol.H
[リポジトリ](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/client)内の[完全なコード例](https://github.com/ClickHouse/clickhouse-java/blob/main/examples/client/src/main/java/com/clickhouse/examples/jdbc/Main.java#L73)を参照してください。
-
-## 挿入 API
+## 挿入 API \{#insert-api\}
```java showLineNumbers
@@ -153,10 +143,9 @@ RowBinary フォーマットについては、その[ページ](/interfaces/form
[コード例](https://github.com/ClickHouse/clickhouse-kafka-connect/blob/main/src/main/java/com/clickhouse/kafka/connect/sink/db/ClickHouseWriter.java#L622)があります。
-
## 機能 \{#features\}
-### 圧縮
+### 圧縮 \{#compression\}
クライアントはデフォルトで LZ4 圧縮を使用します。これには次の依存関係が必要です。
@@ -203,8 +192,7 @@ ClickHouseClient client = ClickHouseClient.builder()
さまざまな圧縮オプションについての詳細は、[圧縮に関するドキュメント](/data-compression/compression-modes) を参照してください。
-
-### 複数クエリ
+### 複数クエリ \{#multiple-queries\}
同じセッション内のワーカースレッドで、複数のクエリを順番に実行します:
@@ -220,8 +208,7 @@ CompletableFuture> future = ClickHouseClient.sen
List results = future.get();
```
-
-### 名前付きパラメータ
+### 名前付きパラメータ \{#named-parameters\}
パラメータリスト内での位置だけに頼るのではなく、パラメータ名を指定して渡すことができます。この機能は `params` 関数で利用できます。
@@ -271,8 +258,7 @@ try (ClickHouseClient client = ClickHouseClient.newInstance(ClickHouseProtocol.H
`Integer`、`UUID`、`Array`、`Enum` といった他の型は、`params` 内で自動的に変換されます。
:::
-
-## ノード検出
+## ノード検出 \{#node-discovery\}
Java クライアントは ClickHouse ノードを自動検出する機能を備えています。自動検出はデフォルトでは無効です。手動で有効にするには、`auto_discovery` を `true` に設定します。
@@ -296,7 +282,6 @@ jdbc:ch://my-server/system?auto_discovery=true
| node_discovery_interval | `0` | ノード検出の間隔(ミリ秒)。0 以下の値は一度だけノード検出を行うことを意味します。 |
| node_discovery_limit | `100` | 一度に検出できるノードの最大数。0 以下の値は上限なしであることを意味します。 |
-
### ロードバランシング \{#load-balancing\}
Java クライアントは、ロードバランシングポリシーに従って、リクエストを送信する ClickHouse ノードを選択します。通常、ロードバランシングポリシーには次の役割があります。
@@ -309,12 +294,12 @@ Java クライアントは、ロードバランシングポリシーに従って
| Property | Default | Description |
|-----------------------|-------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| load_balancing_policy | `""` | ロードバランシングポリシーは次のいずれかになります: `firstAlive` - 管理対象ノードリストのうち、最初の正常なノードにリクエストを送信します`random` - 管理対象ノードリストからランダムに選択したノードにリクエストを送信します`roundRobin` - 管理対象ノードリスト内の各ノードに対して順番にリクエストを送信します`ClickHouseLoadBalancingPolicy` を実装した完全修飾クラス名 - カスタムロードバランシングポリシー指定されていない場合、リクエストは管理対象ノードリスト内の最初のノードに送信されます |
-| load_balancing_tags | `""` | ノードをフィルタリングするためのロードバランシングタグ。指定されたタグを持つノードにのみリクエストが送信されます |
-| health_check_interval | `0` | ヘルスチェック間隔(ミリ秒)。0 または負の値は、1 回だけ実行されることを意味します。 |
-| health_check_method | `ClickHouseHealthCheckMethod.SELECT_ONE` | ヘルスチェック方法。次のいずれかになります: `ClickHouseHealthCheckMethod.SELECT_ONE` - `select 1` クエリによるチェック `ClickHouseHealthCheckMethod.PING` - 一般的により高速な、プロトコル固有のチェック |
-| node_check_interval | `0` | ノードチェック間隔(ミリ秒)。負の数値は 0 として扱われます。前回のチェックから指定した時間が経過した場合にノードステータスがチェックされます。
`health_check_interval` と `node_check_interval` の違いは、`health_check_interval` オプションが、ノード(すべて、または故障中のもの)のリストに対してステータスをチェックするバックグラウンドジョブをスケジュールする一方で、`node_check_interval` は特定のノードについて、前回のチェックからどれだけ時間が経過している必要があるかを指定する点です |
-| check_all_nodes | `false` | すべてのノードに対してヘルスチェックを実行するか、故障中のノードに対してのみ実行するかを指定します。 |
+| load_balancing_policy | `""` | ロードバランシングポリシーは次のいずれかになります: `firstAlive` - 管理対象ノードリストのうち、最初の正常なノードにリクエストを送信します`random` - 管理対象ノードリストからランダムに選択したノードにリクエストを送信します`roundRobin` - 管理対象ノードリスト内の各ノードに対して順番にリクエストを送信します`ClickHouseLoadBalancingPolicy` を実装した完全修飾クラス名 - カスタムロードバランシングポリシー指定されていない場合、リクエストは管理対象ノードリスト内の最初のノードに送信されます |
+| load_balancing_tags | `""` | ノードをフィルタリングするためのロードバランシングタグ。指定されたタグを持つノードにのみリクエストが送信されます |
+| health_check_interval | `0` | ヘルスチェック間隔(ミリ秒)。0 または負の値は、1 回だけ実行されることを意味します。 |
+| health_check_method | `ClickHouseHealthCheckMethod.SELECT_ONE` | ヘルスチェック方法。次のいずれかになります: `ClickHouseHealthCheckMethod.SELECT_ONE` - `select 1` クエリによるチェック `ClickHouseHealthCheckMethod.PING` - 一般的により高速な、プロトコル固有のチェック |
+| node_check_interval | `0` | ノードチェック間隔(ミリ秒)。負の数値は 0 として扱われます。前回のチェックから指定した時間が経過した場合にノードステータスがチェックされます。
`health_check_interval` と `node_check_interval` の違いは、`health_check_interval` オプションが、ノード(すべて、または故障中のもの)のリストに対してステータスをチェックするバックグラウンドジョブをスケジュールする一方で、`node_check_interval` は特定のノードについて、前回のチェックからどれだけ時間が経過している必要があるかを指定する点です |
+| check_all_nodes | `false` | すべてのノードに対してヘルスチェックを実行するか、故障中のノードに対してのみ実行するかを指定します。 |
### フェイルオーバーとリトライ \{#failover-and-retry\}
@@ -324,21 +309,20 @@ Java クライアントは、失敗したクエリに対するフェイルオー
|-------------------------|---------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| failover | `0` | 1 件のリクエストに対してフェイルオーバーが発生する最大回数。0 または負の値はフェイルオーバーなしを意味します。フェイルオーバーでは、失敗したリクエストを別のノード(ロードバランシングポリシーに従う)に送信し、障害からの復旧を試みます。 |
| retry | `0` | 1 件のリクエストに対してリトライが発生する最大回数。0 または負の値はリトライなしを意味します。リトライは同じノードに対してのみ行われ、かつ ClickHouse サーバーが `NETWORK_ERROR` エラーコードを返した場合にのみ実行されます。 |
-| repeat_on_session_lock | `true` | セッションがロックされている場合に、タイムアウトするまで(`session_timeout` または `connect_timeout` に従う)実行を繰り返すかどうか。ClickHouse サーバーが `SESSION_IS_LOCKED` エラーコードを返した場合、失敗したリクエストが再実行されます。 |
+| repeat_on_session_lock | `true` | セッションがロックされている場合に、タイムアウトするまで(`session_timeout` または `connect_timeout` に従う)実行を繰り返すかどうか。ClickHouse サーバーが `SESSION_IS_LOCKED` エラーコードを返した場合、失敗したリクエストが再実行されます。 |
### カスタム HTTP ヘッダーの追加 \{#adding-custom-http-headers\}
Java クライアントは、リクエストにカスタム HTTP ヘッダーを追加したい場合に備え、HTTP/S トランスポートレイヤーをサポートしています。
`custom_http_headers` プロパティを使用し、ヘッダーは `,` 区切りで指定します。ヘッダーのキーと値は `=` で区切ります。
-## Java クライアントサポート
+## Java クライアントサポート \{#java-client-support\}
```java
options.put("custom_http_headers", "X-ClickHouse-Quota=test, X-ClickHouse-Test=test");
```
-
-## JDBC ドライバ
+## JDBC ドライバ \{#jdbc-driver\}
```java
properties.setProperty("custom_http_headers", "X-ClickHouse-Quota=test, X-ClickHouse-Test=test");
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_8.mdx b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_8.mdx
index af921527c6a..5b1a5dc04f8 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_8.mdx
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/client/_snippets/_v0_8.mdx
@@ -5,45 +5,41 @@ import WideTableWrapper from '@site/src/components/WideTableWrapper/WideTableWra
DBサーバーとそのプロトコル経由で通信するための Java クライアントライブラリです。現在の実装では、[HTTP インターフェイス](/interfaces/http) のみをサポートしています。
このライブラリは、サーバーにリクエストを送信するための独自 API を提供します。また、さまざまなバイナリデータ形式(RowBinary* および Native*)を扱うためのツールも提供します。
-
## セットアップ \{#setup\}
-- Maven Central(プロジェクトの Web ページ): https://mvnrepository.com/artifact/com.clickhouse/client-v2
-- Nightlyビルド(リポジトリへのリンク): https://central.sonatype.com/repository/maven-snapshots/
-- 旧 Nightlyビルドの Artifactory(リポジトリへのリンク): https://s01.oss.sonatype.org/content/repositories/snapshots/
+* Maven Central(プロジェクトの Web ページ): https://mvnrepository.com/artifact/com.clickhouse/client-v2
+* Nightlyビルド(リポジトリへのリンク): https://central.sonatype.com/repository/maven-snapshots/
+* 旧 Nightlyビルドの Artifactory(リポジトリへのリンク): https://s01.oss.sonatype.org/content/repositories/snapshots/
-
+
-
-
-```xml
-
- com.clickhouse
- client-v2
- 0.9.1
-
-```
-
-
-
-
-```kotlin
-// https://mvnrepository.com/artifact/com.clickhouse/client-v2
-implementation("com.clickhouse:client-v2:0.9.1")
-```
-
-
-
-```groovy
-// https://mvnrepository.com/artifact/com.clickhouse/client-v2
-implementation 'com.clickhouse:client-v2:0.9.1'
-```
-
-
+
+ ```xml
+
+ com.clickhouse
+ client-v2
+ 0.9.1
+
+ ```
+
+
+
+ ```kotlin
+ // https://mvnrepository.com/artifact/com.clickhouse/client-v2
+ implementation("com.clickhouse:client-v2:0.9.1")
+ ```
+
+
+
+ ```groovy
+ // https://mvnrepository.com/artifact/com.clickhouse/client-v2
+ implementation 'com.clickhouse:client-v2:0.9.1'
+ ```
+
-## 初期化
+## 初期化 \{#initialization\}
Client オブジェクトは `com.clickhouse.client.api.Client.Builder#build()` によって初期化されます。各クライアントはそれぞれ独自のコンテキストを持ち、オブジェクトがクライアント間で共有されることはありません。
Builder には、簡単にセットアップできるようにするための設定メソッドが用意されています。
@@ -60,8 +56,7 @@ Builder には、簡単にセットアップできるようにするための設
`Client` は `AutoCloseable` を実装しているため、不要になったら必ずクローズしてください。
-
-### 認証
+### 認証 \{#authentication\}
認証は初期化フェーズでクライアントごとに構成します。サポートされている認証方法は 3 つあります: パスワード認証、アクセストークン認証、SSL クライアント証明書認証です。
@@ -106,7 +101,6 @@ SSL 認証は、本番環境ではトラブルシューティングが難しい
:::
-
## 設定 \{#configuration\}
すべての設定は、各値のスコープやコンテキストが明確になるようにするインスタンスメソッド(いわゆる設定メソッド)によって定義されます。
@@ -133,54 +127,54 @@ SSL 認証は、本番環境ではトラブルシューティングが難しい
| `setConnectionTTL(long timeout, ChronoUnit unit)` | - `timeout` - ある時間単位で表したタイムアウト値。
- `unit` - `timeout` の時間単位 | 接続の TTL を設定します。この時間を過ぎると接続は非アクティブと見なされます
デフォルト: `-1`
Enum: `ClientConfigProperties.CONNECTION_TTL`
Key: `connection_ttl` |
| `setKeepAliveTimeout(long timeout, ChronoUnit unit)` | * `timeout` - ある時間単位で指定されたタイムアウト値。
- `unit` - `timeout` の時間単位 | HTTP 接続における Keep-Alive のタイムアウトを設定します。タイムアウトを `0` に設定することで、Keep-Alive を無効化することができます。
デフォルト: -
列挙型: `ClientConfigProperties.HTTP_KEEP_ALIVE_TIMEOUT`
キー: `http_keep_alive_timeout` |
| `setConnectionReuseStrategy(ConnectionReuseStrategy strategy)` | - `strategy` - enum `com.clickhouse.client.api.ConnectionReuseStrategy` の定数値 | 接続プールが使用する再利用戦略を選択します。`LIFO` を選択すると、接続がプールに返却されるとすぐに再利用されます。`FIFO` を選択すると、利用可能になった順番で接続を使用します(返却された接続は直ちには再利用されません)。
デフォルト: `FIFO`
Enum: `ClientConfigProperties.CONNECTION_REUSE_STRATEGY`
Key: `connection_reuse_strategy` |
- | `setSocketTimeout(long timeout, ChronoUnit unit`)` | * `timeout` - タイムアウト値。ある時間単位で指定します。
- `unit` - `timeout` の時間単位 | ソケットの読み取りおよび書き込み処理に影響するタイムアウトを設定します
デフォルト: `0`
列挙型: `ClientConfigProperties.SOCKET_OPERATION_TIMEOUT`
キー: `socket_timeout` |
- | `setSocketRcvbuf(long size)` | - `size` - サイズ(バイト単位) | TCP ソケットの受信バッファを設定します。このバッファは JVM が管理するメモリ領域の外側に確保されます。
デフォルト: `8196`
Enum: `ClientConfigProperties.SOCKET_RCVBUF_OPT`
Key: `socket_rcvbuf` |
- | `setSocketSndbuf(long size)` | * `size` - バイト数 | TCP ソケットの受信バッファを設定します。このバッファは JVM メモリの外側に確保されます。
デフォルト: `8196`
Enum: `ClientConfigProperties.SOCKET_SNDBUF_OPT`
Key: `socket_sndbuf` |
- | `setSocketKeepAlive(boolean value)` | - `value` - オプションを有効化するかどうかを示すフラグ。 | クライアントによって作成されるすべての TCP ソケットに対して、オプション `SO_KEEPALIVE` を設定します。TCP Keep-Alive は接続の生存状態を確認するメカニズムを有効にし、予期せず切断された接続を検出するのに役立ちます。
デフォルト: -
Enum: `ClientConfigProperties.SOCKET_KEEPALIVE_OPT`
Key: `socket_keepalive` |
- | `setSocketTcpNodelay(boolean value)` | * `value` - オプションを有効にするかどうかを示すフラグ。 | クライアントによって作成されるすべての TCP ソケットに対してオプション `SO_NODELAY` を設定します。この TCP オプションにより、ソケットは可能な限り早くデータを送信します。
デフォルト: -
Enum: `ClientConfigProperties.SOCKET_TCP_NO_DELAY_OPT`
Key: `socket_tcp_nodelay` |
- | `setSocketLinger(int secondsToWait)` | - `secondsToWait` - 待機する秒数。 | クライアントが作成するすべての TCP ソケットに対して linger 時間を設定します。
デフォルト: -
Enum: `ClientConfigProperties.SOCKET_LINGER_OPT`
Key: `socket_linger` |
- | `compressServerResponse(boolean enabled)` | * `enabled` - オプションを有効化するかどうかを示すフラグ | サーバーがレスポンスを圧縮するかどうかを設定します。
デフォルト: `true`
列挙値: `ClientConfigProperties.COMPRESS_SERVER_RESPONSE`
キー: `compress` |
- | `compressClientRequest(boolean enabled)` | - `enabled` - このオプションを有効化するかどうかを示すフラグ | クライアント側が送信リクエストを圧縮するかどうかを設定します。
デフォルト: `false`
Enum: `ClientConfigProperties.COMPRESS_CLIENT_REQUEST`
Key: `decompress` |
- | `useHttpCompression(boolean enabled)` | * `enabled` - オプションを有効化するかどうかを示すフラグ | 対応するオプションが有効になっている場合に、クライアント/サーバー間の通信で HTTP 圧縮を使用するかどうかを設定します |
- | `appCompressedData(boolean enabled)` | - `enabled` - オプションを有効化するかどうかを示すフラグ | クライアントに、圧縮はアプリケーション側で処理されることを通知します。
デフォルト: `false`
Enum: `ClientConfigProperties.APP_COMPRESSED_DATA`
Key: `app_compressed_data` |
- | `setLZ4UncompressedBufferSize(int size)` | * `size` - サイズ(バイト単位) | 非圧縮データストリームの一部を受信するバッファのサイズを設定します。バッファサイズが不足している場合は新しいバッファが作成され、その旨の警告がログに出力されます。
Default: `65536`
Enum: `ClientConfigProperties.COMPRESSION_LZ4_UNCOMPRESSED_BUF_SIZE`
Key: `compression.lz4.uncompressed_buffer_size` |
- | `disableNativeCompression` | - `disable` - オプションを無効にするかどうかを示すフラグ | ネイティブ圧縮を無効にします。`true` に設定すると、ネイティブ圧縮が無効になります。
デフォルト: `false`
Enum: `ClientConfigProperties.DISABLE_NATIVE_COMPRESSION`
Key: `disable_native_compression` |
- | `setDefaultDatabase(String database)` | * `database` - データベースの名前 | 既定のデータベースを設定します。
既定値: `default`
列挙値: `ClientConfigProperties.DATABASE`
キー: `database` |
- | `addProxy(ProxyType type, String host, int port)` | - `type` - プロキシの種類。
- `host` - プロキシのホスト名または IP アドレス。
- `port` - プロキシのポート。 | サーバーとの通信に使用するプロキシを設定します。プロキシで認証が必要な場合は、このプロキシ設定が必要です。
デフォルト: -
列挙型: `ClientConfigProperties.PROXY_TYPE`
キー: `proxy_type`
デフォルト: -
列挙型: `ClientConfigProperties.PROXY_HOST`
キー: `proxy_host`
デフォルト: -
列挙型: `ClientConfigProperties.PROXY_PORT`
キー: `proxy_port` |
- | `setProxyCredentials(String user, String pass)` | * `user` - プロキシユーザー名。
- `pass` - パスワード | プロキシでの認証に使用するユーザー資格情報を設定します。
Default: -
Enum: `ClientConfigProperties.PROXY_USER`
Key: `proxy_user`
Default: -
Enum: `ClientConfigProperties.PROXY_PASSWORD`
Key: `proxy_password` |
- | `setExecutionTimeout(long timeout, ChronoUnit timeUnit)` | - `timeout` - タイムアウト値。
- `timeUnit` - `timeout` の時間単位 | クエリの最大実行時間を設定します
デフォルト: `0`
列挙型: `ClientConfigProperties.MAX_EXECUTION_TIME`
キー: `max_execution_time` |
- | `setHttpCookiesEnabled(boolean enabled)` | `enabled` - オプションを有効にするかどうかを示すフラグ | HTTP クッキーを保持し、サーバーに再送信するかどうかを設定します。 |
- | `setSSLTrustStore(String path)` | `path` - ローカル(クライアント側)システム上のファイルパス | サーバーホストの検証にクライアントが SSL トラストストアを使用するかどうかを設定します。
デフォルト: -
列挙値: `ClientConfigProperties.SSL_TRUST_STORE`
キー: `trust_store` |
- | `setSSLTrustStorePassword(String password)` | `password` - シークレット値 | `setSSLTrustStore(String path)` で指定された SSL トラストストアのロック解除に使用するパスワードを設定します。
デフォルト: -
Enum: `ClientConfigProperties.SSL_KEY_STORE_PASSWORD`
Key: `key_store_password` |
- | `setSSLTrustStoreType(String type)` | `type` - トラストストアの種類名 | `setSSLTrustStore(String path)` で指定されたトラストストアの型を設定します。
デフォルト値: -
列挙型: `ClientConfigProperties.SSL_KEYSTORE_TYPE`
キー: `key_store_type` |
- | `setRootCertificate(String path)` | `path` - ローカル(クライアント側)システム上のファイルのパス | クライアントがサーバーホストを検証するために指定したルート (CA) 証明書を使用するかどうかを設定します。
デフォルト: -
列挙型: `ClientConfigProperties.CA_CERTIFICATE`
キー: `sslrootcert` |
- | `setClientCertificate(String path)` | `path` - ローカル(クライアント側)システム上のファイルパス | SSL 接続の確立時および SSL 認証で使用するクライアント証明書のパスを設定します。
デフォルト: -
列挙型: `ClientConfigProperties.SSL_CERTIFICATE`
キー: `sslcert` |
- | `setClientKey(String path)` | `path` - ローカル(クライアント側)システム上のファイルのパス | サーバーとの SSL 通信を暗号化するために使用するクライアントの秘密鍵を設定します。
デフォルト値: -
Enum: `ClientConfigProperties.SSL_KEY`
Key: `ssl_key` |
- | `useServerTimeZone(boolean useServerTimeZone)` | `useServerTimeZone` - この設定を有効にするかどうかを示すフラグ | クライアントが DateTime および Date 列の値をデコードする際にサーバーのタイムゾーンを使用するかどうかを指定します。有効にした場合、サーバーのタイムゾーンは `setServerTimeZone(String timeZone)` で設定する必要があります。
デフォルト: `true`
Enum: `ClientConfigProperties.USE_SERVER_TIMEZONE`
Key: `use_server_time_zone` |
- | `useTimeZone(String timeZone)` | `timeZone` - Java で有効なタイムゾーン ID を表す文字列値(`java.time.ZoneId` を参照) | 指定したタイムゾーンを、DateTime および Date 列の値をデコードする際に使用するかどうかを設定します。サーバー側のタイムゾーン設定を上書きします。
デフォルト: -
Enum: `ClientConfigProperties.USE_TIMEZONE`
Key: `use_time_zone` |
- | `setServerTimeZone(String timeZone)` | `timeZone` - Java の有効なタイムゾーン ID を表す文字列値(`java.time.ZoneId` を参照) | サーバー側のタイムゾーンを設定します。デフォルトでは UTC タイムゾーンが使用されます。
デフォルト: `UTC`
列挙: `ClientConfigProperties.SERVER_TIMEZONE`
キー: `server_time_zone` |
- | `useAsyncRequests(boolean async)` | `async` - オプションを有効化するかどうかを示すフラグ。 | クライアントがリクエストを別スレッドで実行するかどうかを設定します。アプリケーション側の方がマルチスレッド処理の設計を適切に行えること、またタスクを別スレッドで実行してもパフォーマンス向上には寄与しないことから、デフォルトでは無効になっています。
デフォルト: `false`
Enum: `ClientConfigProperties.ASYNC_OPERATIONS`
Key: `async` |
- | `setSharedOperationExecutor(ExecutorService executorService)` | `executorService` - ExecutorService のインスタンス。 | 操作タスク用のexecutor serviceを設定します。
デフォルト: `none`
Enum: `none`
Key: `none` |
- | `setClientNetworkBufferSize(int size)` | * `size` - バイト数 | ソケットとアプリケーション間でデータを往復コピーするために使用される、アプリケーションメモリ空間内のバッファのサイズを設定します。値を大きくすると TCP スタックへのシステムコールは減少しますが、接続ごとに消費されるメモリ量に影響します。接続が短時間で終了するため、このバッファも GC(ガーベジコレクション)の対象になります。また、連続した大きなメモリブロックの割り当てが問題になる可能性がある点にも注意してください。
Default: `300000`
Enum: `ClientConfigProperties.CLIENT_NETWORK_BUFFER_SIZE`
Key: `client_network_buffer_size` |
- | `retryOnFailures(ClientFaultCause ...causes)` | - `causes` - `com.clickhouse.client.api.ClientFaultCause` の列挙型定数 | 再試行対象とする障害タイプを設定します。
既定値: `NoHttpResponse,ConnectTimeout,ConnectionRequestTimeout`
列挙定数: `ClientConfigProperties.CLIENT_RETRY_ON_FAILURE`
キー: `client_retry_on_failures` |
- | `setMaxRetries(int maxRetries)` | * `maxRetries` - 再試行回数 | `retryOnFailures(ClientFaultCause ...causes)` で定義された失敗に対する最大再試行回数を設定します
デフォルト: `3`
列挙型: `ClientConfigProperties.RETRY_ON_FAILURE`
キー: `retry` |
- | `allowBinaryReaderToReuseBuffers(boolean reuse)` | - `reuse` - このオプションを有効にするかどうかを示すフラグ | ほとんどのデータセットには、小さなバイト列としてエンコードされた数値データが含まれます。デフォルトでは、リーダーは必要なバッファーを割り当て、その中にデータを読み込み、その後ターゲットの `Number` クラスへ変換します。これは、多数の小さなオブジェクトが割り当ておよび解放されるため、GC に大きな負荷をかける可能性があります。このオプションを有効にすると、リーダーは事前に割り当てられたバッファーを使用して数値のトランスコードを行います。各リーダーは独自のバッファーセットを持ち、かつ各リーダーは単一スレッドからのみ使用されるため、安全に利用できます。 |
- | `httpHeader(String key, String value)` | * `key` - HTTP ヘッダーのキー。
- `value` - ヘッダー値の文字列。 | 単一の HTTP ヘッダーに値を設定します。既存の値は上書きされます。
Default: `none`
Enum: `none`
Key: `none` |
- | `httpHeader(String key, Collection values)` | - `key` - HTTP ヘッダーキー。
- `values` - 文字列の値のリスト。 | 1 つの HTTP ヘッダーの値を設定します。既存の値は上書きされます。
デフォルト: `none`
列挙型: `none`
キー: `none` |
- | `httpHeaders(Map headers)` | * `header` - HTTP ヘッダーとその値のマップ。 | 複数の HTTP ヘッダー値をまとめて設定します。
Default: `none`
Enum: `none`
Key: `none` |
- | `serverSetting(String name, String value)` | - `name` - クエリレベルの設定名。
- `value` - 設定値(文字列)。 | 各クエリとともにサーバーに渡す設定を指定します。個々の操作で設定された値によって上書きされる場合があります。設定の[一覧](/operations/settings/query-level)
Default: `none`
Enum: `none`
Key: `none` |
- | `serverSetting(String name, Collection values)` | * `name` - クエリレベル設定の名前。
- `values` - 設定の文字列値。 | 各クエリに対してサーバーへ渡す設定を指定します。個々の操作ごとの設定によって上書きされる場合があります。設定の一覧は [List of settings](/operations/settings/query-level) を参照してください。このメソッドは、たとえば [roles](/interfaces/http#setting-role-with-query-parameters) のように複数の値を持つ設定を指定する場合に便利です。
Default: `none`
Enum: `none`
Key: `none` |
- | `columnToMethodMatchingStrategy(ColumnToMethodMatchingStrategy strategy)` | - `strategy` - カラムとフィールドの対応付け戦略の実装 | DTO を登録する際に、DTO クラスのフィールドと DB カラムのマッピングに使用するカスタム戦略を設定します。
デフォルト: `none`
列挙: `none`
キー: `none` |
- | `useHTTPBasicAuth(boolean useBasicAuth)` | * `useBasicAuth` - オプションを有効化するかどうかを示すフラグ | ユーザー名とパスワードによる認証に Basic HTTP 認証を使用するかどうかを設定します。デフォルトでは有効です。この認証方式を使用すると、HTTP ヘッダー経由では正しく送信できない特殊文字を含むパスワードに関する問題を解消できます。
Default: `true`
Enum: `ClientConfigProperties.HTTP_USE_BASIC_AUTH`
Key: `http_use_basic_auth` |
- | `setClientName(String clientName)` | - `clientName` - アプリケーション名を表す文字列 | 呼び出し元アプリケーションに関する追加情報を設定します。この文字列はクライアント名としてサーバーに渡されます。HTTP プロトコルを使用する場合は、`User-Agent` ヘッダーとして送信されます。
デフォルト: -
列挙型: `ClientConfigProperties.CLIENT_NAME`
キー: `client_name` |
- | `useBearerTokenAuth(String bearerToken)` | * `bearerToken` - エンコード済みのベアラートークン | Bearer 認証を使用するかどうかと、使用するトークンを指定します。トークンはそのまま送信されるため、このメソッドに渡す前にエンコードしておく必要があります。
デフォルト: -
Enum: `ClientConfigProperties.BEARERTOKEN_AUTH`
Key: `bearer_token` |
- | `registerClientMetrics(Object registry, String name)` | - `registry` - Micrometer のレジストリインスタンス
- `name` - メトリクスグループの名前 | Micrometer ([https://micrometer.io/](https://micrometer.io/)) のレジストリインスタンスにセンサーを登録します。 |
- | `setServerVersion(String version)` | * `version` - サーバーのバージョンを表す文字列値 | バージョン検出を行わせないためにサーバーのバージョンを設定します。
デフォルト: -
列挙型: `ClientConfigProperties.SERVER_VERSION`
キー: `server_version` |
- | `typeHintMapping(Map typeHintMapping)` | - `typeHintMapping` - 型ヒントのマッピング | ClickHouse の型に対する型ヒントのマッピングを設定します。たとえば、多次元配列を独自の Array オブジェクトではなく、Java のコンテナー型として表現できるようにします。
デフォルト: -
Enum: `ClientConfigProperties.TYPE_HINT_MAPPING`
Key: `type_hint_mapping` |
- | `sslSocketSNI(String sni)` | * `sni` - サーバー名を表す文字列値 | SSL/TLS 接続において SNI(Server Name Indication)として使用するサーバー名を設定します。
デフォルト: -
Enum: `ClientConfigProperties.SSL_SOCKET_SNI`
キー: `ssl_socket_sni` |
+ | `setSocketTimeout(long timeout, ChronoUnit unit`)` | *`timeout`- タイムアウト値。ある時間単位で指定します。
-`unit`-`timeout`の時間単位 | ソケットの読み取りおよび書き込み処理に影響するタイムアウトを設定します
デフォルト:`0`
列挙型:`ClientConfigProperties.SOCKET_OPERATION_TIMEOUT`
キー:`socket_timeout` |
+ |`setSocketRcvbuf(long size)` | -`size`- サイズ(バイト単位) | TCP ソケットの受信バッファを設定します。このバッファは JVM が管理するメモリ領域の外側に確保されます。
デフォルト:`8196`
Enum:`ClientConfigProperties.SOCKET_RCVBUF_OPT`
Key:`socket_rcvbuf` |
+ |`setSocketSndbuf(long size)` | *`size`- バイト数 | TCP ソケットの受信バッファを設定します。このバッファは JVM メモリの外側に確保されます。
デフォルト:`8196`
Enum:`ClientConfigProperties.SOCKET_SNDBUF_OPT`
Key:`socket_sndbuf` |
+ |`setSocketKeepAlive(boolean value)` | -`value`- オプションを有効化するかどうかを示すフラグ。 | クライアントによって作成されるすべての TCP ソケットに対して、オプション`SO_KEEPALIVE`を設定します。TCP Keep-Alive は接続の生存状態を確認するメカニズムを有効にし、予期せず切断された接続を検出するのに役立ちます。
デフォルト: -
Enum:`ClientConfigProperties.SOCKET_KEEPALIVE_OPT`
Key:`socket_keepalive` |
+ |`setSocketTcpNodelay(boolean value)` | *`value`- オプションを有効にするかどうかを示すフラグ。 | クライアントによって作成されるすべての TCP ソケットに対してオプション`SO_NODELAY`を設定します。この TCP オプションにより、ソケットは可能な限り早くデータを送信します。
デフォルト: -
Enum:`ClientConfigProperties.SOCKET_TCP_NO_DELAY_OPT`
Key:`socket_tcp_nodelay` |
+ |`setSocketLinger(int secondsToWait)` | -`secondsToWait`- 待機する秒数。 | クライアントが作成するすべての TCP ソケットに対して linger 時間を設定します。
デフォルト: -
Enum:`ClientConfigProperties.SOCKET_LINGER_OPT`
Key:`socket_linger` |
+ |`compressServerResponse(boolean enabled)` | *`enabled`- オプションを有効化するかどうかを示すフラグ | サーバーがレスポンスを圧縮するかどうかを設定します。
デフォルト:`true`
列挙値:`ClientConfigProperties.COMPRESS_SERVER_RESPONSE`
キー:`compress` |
+ |`compressClientRequest(boolean enabled)` | -`enabled`- このオプションを有効化するかどうかを示すフラグ | クライアント側が送信リクエストを圧縮するかどうかを設定します。
デフォルト:`false`
Enum:`ClientConfigProperties.COMPRESS_CLIENT_REQUEST`
Key:`decompress` |
+ |`useHttpCompression(boolean enabled)` | *`enabled`- オプションを有効化するかどうかを示すフラグ | 対応するオプションが有効になっている場合に、クライアント/サーバー間の通信で HTTP 圧縮を使用するかどうかを設定します |
+ |`appCompressedData(boolean enabled)` | -`enabled`- オプションを有効化するかどうかを示すフラグ | クライアントに、圧縮はアプリケーション側で処理されることを通知します。
デフォルト:`false`
Enum:`ClientConfigProperties.APP_COMPRESSED_DATA`
Key:`app_compressed_data` |
+ |`setLZ4UncompressedBufferSize(int size)` | *`size`- サイズ(バイト単位) | 非圧縮データストリームの一部を受信するバッファのサイズを設定します。バッファサイズが不足している場合は新しいバッファが作成され、その旨の警告がログに出力されます。
Default:`65536`
Enum:`ClientConfigProperties.COMPRESSION_LZ4_UNCOMPRESSED_BUF_SIZE`
Key:`compression.lz4.uncompressed_buffer_size` |
+ |`disableNativeCompression` | -`disable` - オプションを無効にするかどうかを示すフラグ | ネイティブ圧縮を無効にします。`true`に設定すると、ネイティブ圧縮が無効になります。
デフォルト:`false`
Enum:`ClientConfigProperties.DISABLE_NATIVE_COMPRESSION`
Key:`disable_native_compression` |
+ |`setDefaultDatabase(String database)` | *`database`- データベースの名前 | 既定のデータベースを設定します。
既定値:`default`
列挙値:`ClientConfigProperties.DATABASE`
キー:`database` |
+ |`addProxy(ProxyType type, String host, int port)` | -`type`- プロキシの種類。
-`host`- プロキシのホスト名または IP アドレス。
-`port`- プロキシのポート。 | サーバーとの通信に使用するプロキシを設定します。プロキシで認証が必要な場合は、このプロキシ設定が必要です。
デフォルト: -
列挙型:`ClientConfigProperties.PROXY_TYPE`
キー:`proxy_type`
デフォルト: -
列挙型:`ClientConfigProperties.PROXY_HOST`
キー:`proxy_host`
デフォルト: -
列挙型:`ClientConfigProperties.PROXY_PORT`
キー:`proxy_port` |
+ |`setProxyCredentials(String user, String pass)` | *`user`- プロキシユーザー名。
-`pass`- パスワード | プロキシでの認証に使用するユーザー資格情報を設定します。
Default: -
Enum:`ClientConfigProperties.PROXY_USER`
Key:`proxy_user`
Default: -
Enum:`ClientConfigProperties.PROXY_PASSWORD`
Key:`proxy_password` |
+ |`setExecutionTimeout(long timeout, ChronoUnit timeUnit)` | -`timeout`- タイムアウト値。
-`timeUnit`-`timeout`の時間単位 | クエリの最大実行時間を設定します
デフォルト:`0`
列挙型:`ClientConfigProperties.MAX_EXECUTION_TIME`
キー:`max_execution_time` |
+ |`setHttpCookiesEnabled(boolean enabled)` |`enabled`- オプションを有効にするかどうかを示すフラグ | HTTP クッキーを保持し、サーバーに再送信するかどうかを設定します。 |
+ |`setSSLTrustStore(String path)` |`path`- ローカル(クライアント側)システム上のファイルパス | サーバーホストの検証にクライアントが SSL トラストストアを使用するかどうかを設定します。
デフォルト: -
列挙値:`ClientConfigProperties.SSL_TRUST_STORE`
キー:`trust_store` |
+ |`setSSLTrustStorePassword(String password)` |`password`- シークレット値 |`setSSLTrustStore(String path)`で指定された SSL トラストストアのロック解除に使用するパスワードを設定します。
デフォルト: -
Enum:`ClientConfigProperties.SSL_KEY_STORE_PASSWORD`
Key:`key_store_password` |
+ |`setSSLTrustStoreType(String type)` |`type`- トラストストアの種類名 |`setSSLTrustStore(String path)`で指定されたトラストストアの型を設定します。
デフォルト値: -
列挙型:`ClientConfigProperties.SSL_KEYSTORE_TYPE`
キー:`key_store_type` |
+ |`setRootCertificate(String path)` |`path`- ローカル(クライアント側)システム上のファイルのパス | クライアントがサーバーホストを検証するために指定したルート (CA) 証明書を使用するかどうかを設定します。
デフォルト: -
列挙型:`ClientConfigProperties.CA_CERTIFICATE`
キー:`sslrootcert` |
+ |`setClientCertificate(String path)` |`path`- ローカル(クライアント側)システム上のファイルパス | SSL 接続の確立時および SSL 認証で使用するクライアント証明書のパスを設定します。
デフォルト: -
列挙型:`ClientConfigProperties.SSL_CERTIFICATE`
キー:`sslcert` |
+ |`setClientKey(String path)` |`path`- ローカル(クライアント側)システム上のファイルのパス | サーバーとの SSL 通信を暗号化するために使用するクライアントの秘密鍵を設定します。
デフォルト値: -
Enum:`ClientConfigProperties.SSL_KEY`
Key:`ssl_key` |
+ |`useServerTimeZone(boolean useServerTimeZone)` |`useServerTimeZone`- この設定を有効にするかどうかを示すフラグ | クライアントが DateTime および Date 列の値をデコードする際にサーバーのタイムゾーンを使用するかどうかを指定します。有効にした場合、サーバーのタイムゾーンは`setServerTimeZone(String timeZone)`で設定する必要があります。
デフォルト:`true`
Enum:`ClientConfigProperties.USE_SERVER_TIMEZONE`
Key:`use_server_time_zone` |
+ |`useTimeZone(String timeZone)` |`timeZone` - Java で有効なタイムゾーン ID を表す文字列値(`java.time.ZoneId`を参照) | 指定したタイムゾーンを、DateTime および Date 列の値をデコードする際に使用するかどうかを設定します。サーバー側のタイムゾーン設定を上書きします。
デフォルト: -
Enum:`ClientConfigProperties.USE_TIMEZONE`
Key:`use_time_zone` |
+ |`setServerTimeZone(String timeZone)` |`timeZone` - Java の有効なタイムゾーン ID を表す文字列値(`java.time.ZoneId`を参照) | サーバー側のタイムゾーンを設定します。デフォルトでは UTC タイムゾーンが使用されます。
デフォルト:`UTC`
列挙:`ClientConfigProperties.SERVER_TIMEZONE`
キー:`server_time_zone` |
+ |`useAsyncRequests(boolean async)` |`async`- オプションを有効化するかどうかを示すフラグ。 | クライアントがリクエストを別スレッドで実行するかどうかを設定します。アプリケーション側の方がマルチスレッド処理の設計を適切に行えること、またタスクを別スレッドで実行してもパフォーマンス向上には寄与しないことから、デフォルトでは無効になっています。
デフォルト:`false`
Enum:`ClientConfigProperties.ASYNC_OPERATIONS`
Key:`async` |
+ |`setSharedOperationExecutor(ExecutorService executorService)` |`executorService`- ExecutorService のインスタンス。 | 操作タスク用のexecutor serviceを設定します。
デフォルト:`none`
Enum:`none`
Key:`none` |
+ |`setClientNetworkBufferSize(int size)` | *`size`- バイト数 | ソケットとアプリケーション間でデータを往復コピーするために使用される、アプリケーションメモリ空間内のバッファのサイズを設定します。値を大きくすると TCP スタックへのシステムコールは減少しますが、接続ごとに消費されるメモリ量に影響します。接続が短時間で終了するため、このバッファも GC(ガーベジコレクション)の対象になります。また、連続した大きなメモリブロックの割り当てが問題になる可能性がある点にも注意してください。
Default:`300000`
Enum:`ClientConfigProperties.CLIENT_NETWORK_BUFFER_SIZE`
Key:`client_network_buffer_size`|
+ |`retryOnFailures(ClientFaultCause ...causes)` | -`causes`-`com.clickhouse.client.api.ClientFaultCause`の列挙型定数 | 再試行対象とする障害タイプを設定します。
既定値:`NoHttpResponse,ConnectTimeout,ConnectionRequestTimeout`
列挙定数:`ClientConfigProperties.CLIENT_RETRY_ON_FAILURE`
キー:`client_retry_on_failures` |
+ |`setMaxRetries(int maxRetries)` | *`maxRetries`- 再試行回数 |`retryOnFailures(ClientFaultCause ...causes)`で定義された失敗に対する最大再試行回数を設定します
デフォルト:`3`
列挙型:`ClientConfigProperties.RETRY_ON_FAILURE`
キー:`retry` |
+ |`allowBinaryReaderToReuseBuffers(boolean reuse)` | -`reuse`- このオプションを有効にするかどうかを示すフラグ | ほとんどのデータセットには、小さなバイト列としてエンコードされた数値データが含まれます。デフォルトでは、リーダーは必要なバッファーを割り当て、その中にデータを読み込み、その後ターゲットの`Number`クラスへ変換します。これは、多数の小さなオブジェクトが割り当ておよび解放されるため、GC に大きな負荷をかける可能性があります。このオプションを有効にすると、リーダーは事前に割り当てられたバッファーを使用して数値のトランスコードを行います。各リーダーは独自のバッファーセットを持ち、かつ各リーダーは単一スレッドからのみ使用されるため、安全に利用できます。 |
+ |`httpHeader(String key, String value)` | *`key`- HTTP ヘッダーのキー。
-`value`- ヘッダー値の文字列。 | 単一の HTTP ヘッダーに値を設定します。既存の値は上書きされます。
Default:`none`
Enum:`none`
Key:`none` |
+ |`httpHeader(String key, Collection values)` | -`key`- HTTP ヘッダーキー。
-`values`- 文字列の値のリスト。 | 1 つの HTTP ヘッダーの値を設定します。既存の値は上書きされます。
デフォルト:`none`
列挙型:`none`
キー:`none` |
+ |`httpHeaders(Map headers)` | *`header`- HTTP ヘッダーとその値のマップ。 | 複数の HTTP ヘッダー値をまとめて設定します。
Default:`none`
Enum:`none`
Key:`none` |
+ |`serverSetting(String name, String value)` | -`name`- クエリレベルの設定名。
-`value`- 設定値(文字列)。 | 各クエリとともにサーバーに渡す設定を指定します。個々の操作で設定された値によって上書きされる場合があります。設定の[一覧](/operations/settings/query-level)
Default:`none`
Enum:`none`
Key:`none` |
+ |`serverSetting(String name, Collection values)` | *`name`- クエリレベル設定の名前。
-`values`- 設定の文字列値。 | 各クエリに対してサーバーへ渡す設定を指定します。個々の操作ごとの設定によって上書きされる場合があります。設定の一覧は [List of settings](/operations/settings/query-level) を参照してください。このメソッドは、たとえば [roles](/interfaces/http#setting-role-with-query-parameters) のように複数の値を持つ設定を指定する場合に便利です。
Default:`none`
Enum:`none`
Key:`none` |
+ |`columnToMethodMatchingStrategy(ColumnToMethodMatchingStrategy strategy)`| -`strategy`- カラムとフィールドの対応付け戦略の実装 | DTO を登録する際に、DTO クラスのフィールドと DB カラムのマッピングに使用するカスタム戦略を設定します。
デフォルト:`none`
列挙:`none`
キー:`none` |
+ |`useHTTPBasicAuth(boolean useBasicAuth)` | *`useBasicAuth`- オプションを有効化するかどうかを示すフラグ | ユーザー名とパスワードによる認証に Basic HTTP 認証を使用するかどうかを設定します。デフォルトでは有効です。この認証方式を使用すると、HTTP ヘッダー経由では正しく送信できない特殊文字を含むパスワードに関する問題を解消できます。
Default:`true`
Enum:`ClientConfigProperties.HTTP_USE_BASIC_AUTH`
Key:`http_use_basic_auth` |
+ |`setClientName(String clientName)` | -`clientName` - アプリケーション名を表す文字列 | 呼び出し元アプリケーションに関する追加情報を設定します。この文字列はクライアント名としてサーバーに渡されます。HTTP プロトコルを使用する場合は、`User-Agent`ヘッダーとして送信されます。
デフォルト: -
列挙型:`ClientConfigProperties.CLIENT_NAME`
キー:`client_name` |
+ |`useBearerTokenAuth(String bearerToken)` | *`bearerToken`- エンコード済みのベアラートークン | Bearer 認証を使用するかどうかと、使用するトークンを指定します。トークンはそのまま送信されるため、このメソッドに渡す前にエンコードしておく必要があります。
デフォルト: -
Enum:`ClientConfigProperties.BEARERTOKEN_AUTH`
Key:`bearer_token` |
+ |`registerClientMetrics(Object registry, String name)` | -`registry`- Micrometer のレジストリインスタンス
-`name`- メトリクスグループの名前 | Micrometer ([https://micrometer.io/](https://micrometer.io/)) のレジストリインスタンスにセンサーを登録します。 |
+ |`setServerVersion(String version)` | *`version`- サーバーのバージョンを表す文字列値 | バージョン検出を行わせないためにサーバーのバージョンを設定します。
デフォルト: -
列挙型:`ClientConfigProperties.SERVER_VERSION`
キー:`server_version` |
+ |`typeHintMapping(Map typeHintMapping)` | -`typeHintMapping`- 型ヒントのマッピング | ClickHouse の型に対する型ヒントのマッピングを設定します。たとえば、多次元配列を独自の Array オブジェクトではなく、Java のコンテナー型として表現できるようにします。
デフォルト: -
Enum:`ClientConfigProperties.TYPE_HINT_MAPPING`
Key:`type_hint_mapping` |
+ |`sslSocketSNI(String sni)` | *`sni`- サーバー名を表す文字列値 | SSL/TLS 接続において SNI(Server Name Indication)として使用するサーバー名を設定します。
デフォルト: -
Enum:`ClientConfigProperties.SSL_SOCKET_SNI`
キー:`ssl_socket_sni` |
-### サーバー設定
+### サーバー設定 \{#server-settings\}
サーバー側の設定は、作成時にクライアントレベルで一度だけ設定できます(`Builder` の `serverSetting` メソッドを参照)。また、各オペレーションのレベルでも設定できます(オペレーション設定クラスの `serverSetting` を参照)。
@@ -207,8 +201,7 @@ SSL 認証は、本番環境ではトラブルシューティングが難しい
`setOption` メソッド(`Client.Builder` またはオペレーション設定クラスのいずれか)を通じてオプションを設定する場合、サーバー設定の名前には `clickhouse_setting_` を接頭辞として付ける必要があります。この場合は `com.clickhouse.client.api.ClientConfigProperties#serverSetting()` を利用すると便利です。
-
-### カスタム HTTP ヘッダー
+### カスタム HTTP ヘッダー \{#custom-http-header\}
カスタム HTTP ヘッダーは、すべての操作(クライアントレベル)または特定の 1 つの操作(オペレーションレベル)に対して設定できます。
@@ -222,7 +215,6 @@ QuerySettings settings = new QuerySettings()
オプションを `setOption` メソッド(`Client.Builder` またはオペレーション設定クラス)で指定する場合は、カスタムヘッダー名の先頭に `http_header_` を付ける必要があります。この場合は、`com.clickhouse.client.api.ClientConfigProperties#httpHeader()` メソッドが役立ちます。
-
## 共通定義 \{#common-definitions\}
### ClickHouseFormat \{#clickhouseformat\}
@@ -321,7 +313,7 @@ QuerySettings settings = new QuerySettings()
## Insert API(挿入 API) \{#insert-api\}
-### insert(String tableName, InputStream data, ClickHouseFormat format)
+### insert(String tableName, InputStream data, ClickHouseFormat format) \{#insertstring-tablename-inputstream-data-clickhouseformat-format\}
指定されたフォーマットのバイトデータを `InputStream` として受け取ります。`data` は `format` でエンコードされていることが想定されています。
@@ -362,8 +354,7 @@ try (InputStream dataStream = getDataStream()) {
```
-
-### insert(String tableName, List<?> data, InsertSettings settings)
+### insert(String tableName, List<?> data, InsertSettings settings) \{#insertstring-tablename-listlt-data-insertsettings-settings\}
データベースに書き込みリクエストを送信します。オブジェクトのリストは効率的なフォーマットに変換されてからサーバーに送信されます。リスト要素のクラスは、事前に `register(Class, TableSchema)` メソッドを使用して登録しておく必要があります。
@@ -399,8 +390,7 @@ try (InsertResponse response = client.insert(TABLE_NAME, events).get()) {
}
```
-
-### insert(String tableName, DataStreamWriter writer, ClickHouseFormat format, InsertSettings settings)
+### insert(String tableName, DataStreamWriter writer, ClickHouseFormat format, InsertSettings settings) \{#insertstring-tablename-datastreamwriter-writer-clickhouseformat-format-insertsettings-settings\}
**ベータ版**
@@ -477,7 +467,6 @@ try (InsertResponse response = client.insert(tableName, out -> {
既に圧縮済みのデータの書き込み:
-
```java showLineNumbers
String tableName = "very_long_table_name_with_uuid_" + UUID.randomUUID().toString().replace('-', '_');
String tableCreate = "CREATE TABLE \"" + tableName + "\" " +
@@ -525,7 +514,6 @@ try (InsertResponse response = client.insert(tableName, out -> {
```
-
### InsertSettings \{#insertsettings\}
挿入操作に関する構成オプション。
@@ -557,7 +545,7 @@ try (InsertResponse response = client.insert(tableName, out -> {
## クエリ API \{#query-api\}
-### query(String sqlQuery)
+### query(String sqlQuery) \{#querystring-sqlquery\}
`sqlQuery` をそのまま送信します。レスポンス形式はクエリ設定によって決まります。`QueryResponse` は、その形式をサポートするリーダーによって消費されるべきレスポンスストリームへの参照を保持します。
@@ -606,8 +594,7 @@ try (QueryResponse response = client.query(sql).get(3, TimeUnit.SECONDS);) {
// HTTP接続を速やかに解放するため、ビジネスロジックは読み取りブロックの外に配置すること
```
-
-### query(String sqlQuery, Map<String, Object> queryParams, QuerySettings settings)
+### query(String sqlQuery, Map<String, Object> queryParams, QuerySettings settings) \{#querystring-sqlquery-mapltstring-object-queryparams-querysettings-settings\}
`sqlQuery` をそのまま送信します。加えて、サーバーが SQL 式をコンパイルできるようにクエリパラメータも送信します。
@@ -655,8 +642,7 @@ try (QueryResponse response =
```
-
-### queryAll(String sqlQuery)
+### queryAll(String sqlQuery) \{#queryallstring-sqlquery\}
`RowBinaryWithNamesAndTypes` 形式のデータに対してクエリを実行します。結果はコレクションとして返されます。読み取りパフォーマンスはリーダー利用時と同等ですが、データセット全体を保持するため、より多くのメモリを消費します。
@@ -694,7 +680,6 @@ try {
}
```
-
### QuerySettings \{#querysettings\}
クエリ操作向けの設定オプション。
@@ -708,7 +693,7 @@ try {
| `setMaxExecutionTime(Integer maxExecutionTime)` | サーバー上での操作の最大実行時間を設定します。読み込みタイムアウトには影響しません。 |
| `waitEndOfQuery(Boolean waitEndOfQuery)` | 応答を送信する前にクエリの終了を待機するようサーバーに要求します。 |
| `setUseServerTimeZone(Boolean useServerTimeZone)` | 操作結果内の日付/時刻型を解析する際に、サーバーのタイムゾーン(クライアント設定を参照)が使用されます。デフォルトは `false` です。 |
-| `setUseTimeZone(String timeZone)` | 時刻変換に `timeZone` を使用するようサーバーに要求します。 [session_timezone](/operations/settings/settings#session_timezone) を参照してください。 |
+| `setUseTimeZone(String timeZone)` | 時刻変換に `timeZone` を使用するようサーバーに要求します。 [session_timezone](/operations/settings/settings#session_timezone) を参照してください。 |
| `serverSetting(String name, String value)` | 操作に対する個別のサーバー設定を行います。 |
| `serverSetting(String name, Collection values)` | 複数の値を持つ個別のサーバー設定を操作に対して行います。コレクションの要素は `String` 値である必要があります。 |
| `setDBRoles(Collection dbRoles)` | 操作を実行する前に設定する DB ロールを指定します。コレクションの要素は `String` 値である必要があります。 |
@@ -732,12 +717,12 @@ try {
### 例 \{#examples\}
-- サンプルコードは[リポジトリ](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/client-v2)で参照できます
-- Spring Service の[実装](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/demo-service)を参照してください
+* サンプルコードは[リポジトリ](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/client-v2)で参照できます
+* Spring Service の[実装](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/demo-service)を参照してください
## 共通 API \{#common-api\}
-### getTableSchema(String table)
+### getTableSchema(String table) \{#gettableschemastring-table\}
テーブル `table` のスキーマを取得します。
@@ -758,8 +743,7 @@ TableSchema getTableSchema(String table, String database)
テーブルのカラム一覧を含む `TableSchema` オブジェクトを返します。
-
-### getTableSchemaFromQuery(String sql)
+### getTableSchemaFromQuery(String sql) \{#gettableschemafromquerystring-sql\}
SQL ステートメントからスキーマを取得します。
@@ -777,10 +761,9 @@ TableSchema getTableSchemaFromQuery(String sql)
`sql` で指定したクエリに対応する列を持つ `TableSchema` オブジェクトを返します。
-
### TableSchema \{#tableschema\}
-### register(Class<?> clazz, TableSchema schema)
+### register(Class<?> clazz, TableSchema schema) \{#registerclasslt-clazz-tableschema-schema\}
Java クラスに対して、`schema` を用いたデータの読み書きに使用するシリアライズ/デシリアライズ処理をコンパイルします。このメソッドは、getter/setter と対応するカラムのペアごとにシリアライザとデシリアライザを作成します。
カラムの対応付けは、メソッド名から抽出した名前に基づいて行われます。たとえば、`getFirstName` はカラム `first_name` または `firstname` に対応します。
@@ -803,11 +786,10 @@ void register(Class> clazz, TableSchema schema)
client.register(ArticleViewEvent.class, client.getTableSchema(TABLE_NAME));
```
-
## 使用例 \{#usage-examples\}
完全なサンプルコードはリポジトリ内の `example` [フォルダ](https://github.com/ClickHouse/clickhouse-java/tree/main/examples)にあります:
-- [client-v2](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/client-v2) - 主なサンプル集。
-- [demo-service](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/demo-service) - Spring Boot アプリケーションでクライアントを使用する方法を示すサンプル。
-- [demo-kotlin-service](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/demo-kotlin-service) - Ktor (Kotlin) アプリケーションでクライアントを使用する方法を示すサンプル。
\ No newline at end of file
+* [client-v2](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/client-v2) - 主なサンプル集。
+* [demo-service](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/demo-service) - Spring Boot アプリケーションでクライアントを使用する方法を示すサンプル。
+* [demo-kotlin-service](https://github.com/ClickHouse/clickhouse-java/tree/main/examples/demo-kotlin-service) - Ktor (Kotlin) アプリケーションでクライアントを使用する方法を示すサンプル。
\ No newline at end of file
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/index.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/index.md
index 78c9e71b43b..2f15d1f0e1b 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/index.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/index.md
@@ -11,7 +11,7 @@ import TabItem from '@theme/TabItem';
import CodeBlock from '@theme/CodeBlock';
-# Java クライアントの概要
+# Java クライアントの概要 {#java-clients-overview}
- [Client 0.8+](./client/client.mdx)
- [JDBC 0.8+](./jdbc/jdbc.mdx)
@@ -122,7 +122,7 @@ JDBC ドライバーは、基盤となるクライアント実装と同じ機能
- セキュリティ修正や新機能を見逃さないよう、クライアントは継続的にアップグレードすることを推奨します。
- v2 API への移行で問題がある場合は、[Issue を作成](https://github.com/ClickHouse/clickhouse-java/issues/new?assignees=&labels=v2-feedback&projects=&template=v2-feedback.md&title=)してください。対応いたします。
-### ロギング
+### ロギング {#logging}
Java クライアントはロギングに [SLF4J](https://www.slf4j.org/) を使用します。`Logback` や `Log4j` など、任意の SLF4J 互換ロギングフレームワークを使用できます。
たとえば、Maven を使用している場合は、次の依存関係を `pom.xml` ファイルに追加できます。
@@ -153,7 +153,7 @@ Java クライアントはロギングに [SLF4J](https://www.slf4j.org/) を使
```
-#### ロギングの設定
+#### ロギングの設定 {#configuring-logging}
ロギングの設定方法は、使用しているロギングフレームワークによって異なります。たとえば `Logback` を使用している場合は、`logback.xml` という名前のファイルでロギングを設定できます。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_7.mdx b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_7.mdx
index 7a83c9bcf3e..6b0ceec8d31 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_7.mdx
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_7.mdx
@@ -9,77 +9,70 @@ import TabItem from '@theme/TabItem';
`clickhouse-jdbc` API は同期型であり、一般的により多くのオーバーヘッド(例:SQL の構文解析や型のマッピング/変換など)が発生します。パフォーマンスが重要な場合や、より直接的な方法で ClickHouse にアクセスしたい場合は、[clickhouse-client](/integrations/sql-clients/sql-console) の利用を検討してください。
-
## 環境要件 \{#environment-requirements\}
-- [OpenJDK](https://openjdk.java.net) バージョン 8 以上
+* [OpenJDK](https://openjdk.java.net) バージョン 8 以上
### セットアップ \{#setup\}
-
-
- ```xml
-
-
- com.clickhouse
- clickhouse-jdbc
- 0.7.2
-
- shaded-all
-
- ```
-
-
-
-
- ```kotlin
- // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
- // すべての依存関係を含む Uber JAR を使用します。より小さな JAR が必要な場合は classifier を http に変更してください
- implementation("com.clickhouse:clickhouse-jdbc:0.7.2:shaded-all")
- ```
-
-
-
- ```groovy
- // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
- // すべての依存関係を含む Uber JAR を使用します。より小さな JAR が必要な場合は classifier を http に変更してください
- implementation 'com.clickhouse:clickhouse-jdbc:0.7.2:shaded-all'
- ```
-
-
+
+ ```xml
+
+
+ com.clickhouse
+ clickhouse-jdbc
+ 0.7.2
+
+ shaded-all
+
+ ```
+
+
+
+ ```kotlin
+ // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
+ // すべての依存関係を含む Uber JAR を使用します。より小さな JAR が必要な場合は classifier を http に変更してください
+ implementation("com.clickhouse:clickhouse-jdbc:0.7.2:shaded-all")
+ ```
+
+
+
+ ```groovy
+ // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
+ // すべての依存関係を含む Uber JAR を使用します。より小さな JAR が必要な場合は classifier を http に変更してください
+ implementation 'com.clickhouse:clickhouse-jdbc:0.7.2:shaded-all'
+ ```
+
バージョン `0.5.0` 以降では、クライアントライブラリにバンドルされている Apache HTTP Client を使用しています。共通で利用できるパッケージのバージョンが用意されていないため、ロギング用ライブラリを依存関係として追加する必要があります。
-
-
- ```xml
-
-
- org.slf4j
- slf4j-api
- 2.0.16
-
- ```
-
-
-
-
- ```kotlin
- // https://mvnrepository.com/artifact/org.slf4j/slf4j-api
- implementation("org.slf4j:slf4j-api:2.0.16")
- ```
-
-
-
- ```groovy
- // https://mvnrepository.com/artifact/org.slf4j/slf4j-api
- implementation 'org.slf4j:slf4j-api:2.0.16'
- ```
-
-
+
+ ```xml
+
+
+ org.slf4j
+ slf4j-api
+ 2.0.16
+
+ ```
+
+
+
+ ```kotlin
+ // https://mvnrepository.com/artifact/org.slf4j/slf4j-api
+ implementation("org.slf4j:slf4j-api:2.0.16")
+ ```
+
+
+
+ ```groovy
+ // https://mvnrepository.com/artifact/org.slf4j/slf4j-api
+ implementation 'org.slf4j:slf4j-api:2.0.16'
+ ```
+
## 設定 \{#configuration\}
@@ -88,9 +81,9 @@ import TabItem from '@theme/TabItem';
**URL 構文**: `jdbc:(ch|clickhouse)[:]://endpoint1[,endpoint2,...][/][?param1=value1¶m2=value2][#tag1,tag2,...]`。例えば次のとおりです:
-- `jdbc:ch://localhost` は `jdbc:clickhouse:http://localhost:8123` と同じです
-- `jdbc:ch:https://localhost` は `jdbc:clickhouse:http://localhost:8443?ssl=true&sslmode=STRICT` と同じです
-- `jdbc:ch:grpc://localhost` は `jdbc:clickhouse:grpc://localhost:9100` と同じです
+* `jdbc:ch://localhost` は `jdbc:clickhouse:http://localhost:8123` と同じです
+* `jdbc:ch:https://localhost` は `jdbc:clickhouse:http://localhost:8443?ssl=true&sslmode=STRICT` と同じです
+* `jdbc:ch:grpc://localhost` は `jdbc:clickhouse:grpc://localhost:9100` と同じです
**接続プロパティ**:
@@ -113,13 +106,13 @@ JDBC ドライバーはクライアントライブラリと同じデータ形式
:::note
-- AggregatedFunction - :warning: `SELECT * FROM table ...` をサポートしていません
-- Decimal - 一貫性を保つため、21.9 以降では `SET output_format_decimal_trailing_zeros=1` を設定してください
-- Enum - 文字列および整数の両方として扱うことができます
-- UInt64 - client-v1 では `long` にマッピングされます
-:::
+* AggregatedFunction - :warning: `SELECT * FROM table ...` をサポートしていません
+* Decimal - 一貫性を保つため、21.9 以降では `SET output_format_decimal_trailing_zeros=1` を設定してください
+* Enum - 文字列および整数の両方として扱うことができます
+* UInt64 - client-v1 では `long` にマッピングされます
+ :::
-## 接続の作成
+## 接続の作成 \{#creating-connection\}
```java
String url = "jdbc:ch://my-server/system"; // デフォルトでHTTPプロトコルとポート8123を使用
@@ -132,8 +125,7 @@ try (Connection conn = dataSource.getConnection("default", "password");
}
```
-
-## 単純なステートメント
+## 単純なステートメント \{#simple-statement\}
```java showLineNumbers
@@ -146,8 +138,7 @@ try (Connection conn = dataSource.getConnection(...);
}
```
-
-## Insert
+## Insert \{#insert\}
:::note
@@ -166,8 +157,7 @@ try (PreparedStatement ps = conn.prepareStatement("insert into mytable(* except
}
```
-
-### input table 関数を使用する場合
+### input table 関数を使用する場合 \{#with-input-table-function\}
パフォーマンス面で非常に優れたオプションです。
@@ -186,8 +176,7 @@ try (PreparedStatement ps = conn.prepareStatement(
* 可能な限り [input 関数のドキュメント](/sql-reference/table-functions/input/) を利用する
-
-### プレースホルダーを使った挿入
+### プレースホルダーを使った挿入 \{#insert-with-placeholders\}
このオプションは、小規模なインサートにのみ使用することを推奨します。クライアント側でパースされる長大な SQL 式が必要になり、その処理で CPU とメモリを消費するためです。
@@ -202,8 +191,7 @@ try (PreparedStatement ps = conn.prepareStatement("insert into mytable values(tr
}
```
-
-## DateTime とタイムゾーンの扱い
+## DateTime とタイムゾーンの扱い \{#handling-datetime-and-time-zones\}
`java.sql.Timestamp` の代わりに `java.time.LocalDateTime` または `java.time.OffsetDateTime` を使用し、`java.sql.Date` の代わりには `java.time.LocalDate` を使用してください。
@@ -218,8 +206,7 @@ try (PreparedStatement ps = conn.prepareStatement("select date_time from mytable
}
```
-
-## `AggregateFunction` の扱い
+## `AggregateFunction` の扱い \{#handling-aggregatefunction\}
:::note
現時点では、`groupBitmap` のみがサポートされています。
@@ -267,8 +254,7 @@ try (PreparedStatement stmt = conn.prepareStatement(
-
-## HTTP ライブラリの設定
+## HTTP ライブラリの設定 \{#configuring-http-library\}
ClickHouse JDBC コネクタは、次の 3 種類の HTTP ライブラリをサポートしています。[`HttpClient`](https://docs.oracle.com/en/java/javase/11/docs/api/java.net.http/java/net/http/HttpClient.html)、[`HttpURLConnection`](https://docs.oracle.com/en/java/javase/11/docs/api/java.base/java/net/HttpURLConnection.html)、および [Apache `HttpClient`](https://hc.apache.org/httpcomponents-client-5.2.x/) です。
@@ -292,12 +278,11 @@ properties.setProperty("http_connection_provider", "APACHE_HTTP_CLIENT");
-
## SSL を使用して ClickHouse に接続する \{#connect-to-clickhouse-with-ssl\}
SSL を使用して ClickHouse へのセキュアな JDBC 接続を確立するには、JDBC プロパティに SSL パラメータを含めるように設定する必要があります。通常は、JDBC URL または Properties オブジェクトにおいて `sslmode` や `sslrootcert` などの SSL プロパティを指定します。
-## SSL プロパティ
+## SSL プロパティ \{#ssl-properties\}
| Name | Default Value | Optional Values | Description |
| -------------------- | ------------- | --------------- | ---------------------------------------------------- |
@@ -330,8 +315,7 @@ SSL を使用して ClickHouse へのセキュアな JDBC 接続を確立する
}
```
-
-## 大規模な INSERT 時の JDBC タイムアウトの解消
+## 大規模な INSERT 時の JDBC タイムアウトの解消 \{#resolving-jdbc-timeout-on-large-inserts\}
ClickHouse で長時間実行される大規模な INSERT を行う際、次のような JDBC タイムアウトエラーが発生する場合があります:
@@ -341,18 +325,17 @@ ClickHouse で長時間実行される大規模な INSERT を行う際、次の
これらのエラーはデータ挿入プロセスを阻害し、システムの安定性に影響を及ぼす可能性があります。この問題に対処するには、クライアント OS 側のいくつかのタイムアウト設定を調整する必要があります。
-
### Mac OS \{#mac-os\}
Mac OS では、以下の設定を調整することで問題を解消できます。
-- `net.inet.tcp.keepidle`: 60000
-- `net.inet.tcp.keepintvl`: 45000
-- `net.inet.tcp.keepinit`: 45000
-- `net.inet.tcp.keepcnt`: 8
-- `net.inet.tcp.always_keepalive`: 1
+* `net.inet.tcp.keepidle`: 60000
+* `net.inet.tcp.keepintvl`: 45000
+* `net.inet.tcp.keepinit`: 45000
+* `net.inet.tcp.keepcnt`: 8
+* `net.inet.tcp.always_keepalive`: 1
-### Linux
+### Linux \{#linux\}
Linux では、同等の設定だけでは問題が解決しない場合があります。Linux におけるソケットのキープアライブ設定の扱いが異なるため、追加の手順が必要です。次の手順に従ってください。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_8.mdx b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_8.mdx
index 398086ae604..06f2c833f72 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_8.mdx
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/jdbc/_snippets/_v0_8.mdx
@@ -6,7 +6,6 @@ import TabItem from '@theme/TabItem';
パフォーマンスや直接アクセスが重要な場合は、最新の Java クライアントを直接使用することを推奨します。
:::
-
## 0.7.x からの変更点 \{#changes-from-07x\}
0.8 では、ドライバーが JDBC 仕様により厳密に従うようにすることを目指したため、影響が出る可能性のある削除された機能があります:
@@ -25,39 +24,36 @@ import TabItem from '@theme/TabItem';
## 環境要件 \{#environment-requirements\}
-- [OpenJDK](https://openjdk.java.net) バージョン 8 以上
+* [OpenJDK](https://openjdk.java.net) バージョン 8 以上
### セットアップ \{#setup\}
-
-
- ```xml
-
-
- com.clickhouse
- clickhouse-jdbc
- 0.9.1
- shaded-all
-
- ```
-
-
-
-
- ```kotlin
- // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
- implementation("com.clickhouse:clickhouse-jdbc:0.9.1:shaded-all")
- ```
-
-
-
- ```groovy
- // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
- implementation 'com.clickhouse:clickhouse-jdbc:0.9.1:shaded-all'
- ```
-
-
+
+ ```xml
+
+
+ com.clickhouse
+ clickhouse-jdbc
+ 0.9.1
+ shaded-all
+
+ ```
+
+
+
+ ```kotlin
+ // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
+ implementation("com.clickhouse:clickhouse-jdbc:0.9.1:shaded-all")
+ ```
+
+
+
+ ```groovy
+ // https://mvnrepository.com/artifact/com.clickhouse/clickhouse-jdbc
+ implementation 'com.clickhouse:clickhouse-jdbc:0.9.1:shaded-all'
+ ```
+
## 設定 \{#configuration\}
@@ -66,8 +62,8 @@ import TabItem from '@theme/TabItem';
**URL 構文**: `jdbc:(ch|clickhouse)[:]://endpoint1[,endpoint2,...][/][?param1=value1¶m2=value2][#tag1,tag2,...]`。例:
-- `jdbc:clickhouse:http://localhost:8123`
-- `jdbc:clickhouse:https://localhost:8443?ssl=true`
+* `jdbc:clickhouse:http://localhost:8123`
+* `jdbc:clickhouse:https://localhost:8443?ssl=true`
**接続プロパティ**:
@@ -93,7 +89,7 @@ JDBC ドライバーは、基盤となっている [Java クライアント](/in
[java.time](https://docs.oracle.com/javase/8/docs/api/java/time/package-summary.html) パッケージの利用を検討することをお勧めします。`ZonedDateTime` と
`OffsetDateTime` は、`java.sql.Timestamp`、`java.sql.Date`、`java.sql.Time` を置き換える優れた選択肢です。
-## 接続の作成
+## 接続の作成 \{#creating-connection\}
```java
String url = "jdbc:ch://my-server:8123/system";
@@ -104,8 +100,7 @@ try (Connection conn = dataSource.getConnection()) {
... // 接続で何らかの処理を行う
```
-
-## 認証情報と設定の提供
+## 認証情報と設定の提供 \{#supplying-credentials-and-settings\}
```java showLineNumbers
String url = "jdbc:ch://localhost:8123?jdbc_ignore_unsupported_values=true&socket_timeout=10";
@@ -127,8 +122,7 @@ try (Connection conn = DriverManager.getConnection(url, info)) {
}
```
-
-## シンプルなステートメント
+## シンプルなステートメント \{#simple-statement\}
```java showLineNumbers
@@ -141,8 +135,7 @@ try (Connection conn = dataSource.getConnection(...);
}
```
-
-## INSERT 文
+## INSERT 文 \{#insert\}
```java showLineNumbers
try (PreparedStatement ps = conn.prepareStatement("INSERT INTO mytable VALUES (?, ?)")) {
@@ -154,8 +147,7 @@ try (PreparedStatement ps = conn.prepareStatement("INSERT INTO mytable VALUES (?
}
```
-
-## `HikariCP`
+## `HikariCP` \{#hikaricp\}
```java showLineNumbers
// コネクションプーリングはパフォーマンス面であまり効果がありません。
@@ -178,7 +170,6 @@ try (HikariDataSource ds = new HikariDataSource(poolConfig);
}
```
-
## 詳細情報 \{#more-information\}
詳細については、[GitHub リポジトリ](https://github.com/ClickHouse/clickhouse-java)および [Java クライアントのドキュメント](/integrations/language-clients/java/client/client.mdx)を参照してください。
@@ -189,7 +180,7 @@ try (HikariDataSource ds = new HikariDataSource(poolConfig);
ドライバーはログ出力に [slf4j](https://www.slf4j.org/) を使用し、`classpath` 上で最初に見つかった利用可能な実装を使用します。
-### 大量挿入時の JDBC タイムアウトの解消
+### 大量挿入時の JDBC タイムアウトの解消 \{#resolving-jdbc-timeout-on-large-inserts\}
ClickHouse に対して実行時間の長い大量挿入処理を行う際、次のような JDBC タイムアウトエラーが発生する場合があります:
@@ -199,18 +190,17 @@ ClickHouse に対して実行時間の長い大量挿入処理を行う際、次
これらのエラーはデータ挿入処理を妨げ、システムの安定性に影響を与える可能性があります。この問題に対処するには、クライアント OS 側のいくつかのタイムアウト設定を調整する必要が生じる場合があります。
-
#### Mac OS \{#mac-os\}
Mac OS では、次の設定を調整することで問題を解消できます。
-- `net.inet.tcp.keepidle`: 60000
-- `net.inet.tcp.keepintvl`: 45000
-- `net.inet.tcp.keepinit`: 45000
-- `net.inet.tcp.keepcnt`: 8
-- `net.inet.tcp.always_keepalive`: 1
+* `net.inet.tcp.keepidle`: 60000
+* `net.inet.tcp.keepintvl`: 45000
+* `net.inet.tcp.keepinit`: 45000
+* `net.inet.tcp.keepcnt`: 8
+* `net.inet.tcp.always_keepalive`: 1
-#### Linux
+#### Linux \{#linux\}
Linux では、同等の設定だけでは問題が解決しない場合があります。Linux におけるソケットのキープアライブ設定の扱いが異なるため、追加の手順が必要です。次の手順に従ってください。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/r2dbc.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/r2dbc.md
index 6f179629aae..d2105d53a60 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/r2dbc.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/java/r2dbc.md
@@ -13,7 +13,7 @@ import TabItem from '@theme/TabItem';
import CodeBlock from '@theme/CodeBlock';
-# R2DBC ドライバ
+# R2DBC ドライバ {#r2dbc-driver}
## R2DBC ドライバー {#r2dbc-driver}
@@ -23,7 +23,7 @@ ClickHouse 向け非同期 Java クライアントの [R2DBC](https://r2dbc.io/)
- [OpenJDK](https://openjdk.java.net) バージョン 8 以上
-### セットアップ
+### セットアップ {#setup}
```xml
@@ -43,7 +43,7 @@ ClickHouse 向け非同期 Java クライアントの [R2DBC](https://r2dbc.io/)
```
-### ClickHouse に接続する
+### ClickHouse に接続する {#connect-to-clickhouse}
```java showLineNumbers
ConnectionFactory connectionFactory = ConnectionFactories
@@ -54,7 +54,7 @@ ConnectionFactory connectionFactory = ConnectionFactories
```
-### クエリ
+### クエリ {#query}
```java showLineNumbers
connection
@@ -72,7 +72,7 @@ connection
```
-### 挿入
+### 挿入 {#insert}
```java showLineNumbers
connection
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/js.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/js.md
index b7309ed2c88..4116340e78e 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/js.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/js.md
@@ -12,11 +12,11 @@ integration:
- website: 'https://github.com/ClickHouse/clickhouse-js'
---
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import ExperimentalBadge from '@theme/badges/ExperimentalBadge';
-# ClickHouse JS
+# ClickHouse JS {#clickhouse-js}
ClickHouse へ接続するための公式の JS クライアントです。
このクライアントは TypeScript で実装されており、クライアントの公開 API 向けの型定義を提供します。
@@ -52,7 +52,7 @@ TypeScript を使用する場合は、[バージョン 4.5 以上](https://www.t
クライアントの Web 版は、最新の Chrome および Firefox ブラウザで公式にテストされており、React/Vue/Angular アプリケーションや Cloudflare Workers などで依存ライブラリとして利用できます。
-## インストール
+## インストール {#installation}
最新の安定版 Node.js クライアントをインストールするには、次のコマンドを実行します。
@@ -87,7 +87,7 @@ npm i @clickhouse/client-web
特に明記がない限り、ほとんどのサンプルは Node.js 版およびブラウザ版のクライアントの両方で利用できます。
-#### クライアントインスタンスの作成
+#### クライアントインスタンスの作成 {#creating-a-client-instance}
`createClient` ファクトリー関数を使用して、必要に応じてクライアントインスタンスをいくつでも作成できます。
@@ -143,7 +143,7 @@ const client = createClient({
| **http_agent**?: http.Agent \| https.Agent
| クライアント用のカスタム HTTP エージェント。 | - | [HTTP agent docs](./js.md#custom-httphttps-agent-experimental-nodejs-only) |
| **set_basic_auth_header**?: boolean
| Basic 認証の資格情報を使用して `Authorization` ヘッダーを設定します。 | `true` | [HTTP agent docs におけるこの設定の利用方法](./js.md#custom-httphttps-agent-experimental-nodejs-only) |
-### URL 設定
+### URL 設定 {#url-configuration}
:::important
URL 設定は*常に*ハードコードされた値を上書きし、この場合は警告がログに記録されます。
@@ -197,7 +197,7 @@ createClient({
-#### 接続の概要
+#### 接続の概要 {#connection-overview}
クライアントは HTTP(s) プロトコル経由で接続を行います。RowBinary のサポートは開発中です。[関連する issue](https://github.com/ClickHouse/clickhouse-js/issues/216) を参照してください。
@@ -234,7 +234,7 @@ const client = createClient({
`query_id` パラメータを上書きする場合は、呼び出しごとに一意になるようにする必要があります。ランダムな UUID を使用するのが推奨されます。
:::
-### すべてのクライアントメソッドに共通の基本パラメータ
+### すべてのクライアントメソッドに共通の基本パラメータ {#base-parameters-for-all-client-methods}
すべてのクライアントメソッド([query](./js.md#query-method)/[command](./js.md#command-method)/[insert](./js.md#insert-method)/[exec](./js.md#exec-method))で共通して使用できるパラメータがいくつかあります。
@@ -258,7 +258,7 @@ interface BaseQueryParams {
```
-### クエリメソッド
+### クエリメソッド {#query-method}
これは、`SELECT` のようなレスポンスを返すほとんどのステートメントや、`CREATE TABLE` のような DDL を送信する際に使用し、`await` して結果を受け取る必要があります。返された結果セットは、アプリケーション側で利用されることを前提としています。
@@ -286,7 +286,7 @@ interface ClickHouseClient {
:::
-#### 結果セットおよび行の抽象化
+#### 結果セットおよび行の抽象化 {#result-set-and-row-abstractions}
`ResultSet` は、アプリケーション内でのデータ処理を容易にするための、いくつかの便利なメソッドを提供します。
@@ -430,7 +430,7 @@ while (true) {
```
-### Insert メソッド
+### Insert メソッド {#insert-method}
これはデータを挿入するための基本的なメソッドです。
@@ -452,7 +452,7 @@ interface ClickHouseClient {
insert 文がサーバーに送信された場合、`executed` フラグは `true` になります。
-#### Node.js における insert メソッドとストリーミング
+#### Node.js における insert メソッドとストリーミング {#insert-method-and-streaming-in-nodejs}
`insert` メソッドに指定された [データ形式](./js.md#supported-data-formats) に応じて、`Stream.Readable` と通常の `Array` のいずれにも対応します。あわせて、[ファイルストリーミング](./js.md#streaming-files-nodejs-only) に関するセクションも参照してください。
@@ -566,7 +566,7 @@ await client.insert({
```
-#### Web バージョンの制限事項
+#### Web バージョンの制限事項 {#web-version-limitations}
現在、`@clickhouse/client-web` での insert 処理は `Array` と `JSON*` フォーマットでのみ動作します。
ブラウザの互換性が十分でないため、Web バージョンではまだストリームの挿入はサポートされていません。
@@ -594,7 +594,7 @@ interface InsertParams extends BaseQueryParams {
これは今後変更される可能性があります。あわせてこちらも参照してください: [すべてのクライアントメソッドに共通の基本パラメーター](./js.md#base-parameters-for-all-client-methods)。
-### Command メソッド
+### Command メソッド {#command-method}
出力を伴わないステートメント、`FORMAT` 句が適用できないステートメント、あるいはレスポンスにまったく関心がない場合に使用できます。このようなステートメントの例としては、`CREATE TABLE` や `ALTER TABLE` があります。
@@ -665,7 +665,7 @@ await client.command({
:::
-### Exec メソッド
+### Exec メソッド {#exec-method}
`query`/`insert` に収まらないカスタムクエリがあり、
その結果を取得したい場合は、`command` の代わりに `exec` を使用できます。
@@ -706,7 +706,7 @@ export interface QueryResult {
```
-### Ping
+### Ping {#ping}
接続状態を確認するために用意されている `ping` メソッドは、サーバーに到達可能な場合は `true` を返します。
@@ -764,7 +764,7 @@ const result = await client.ping({ select: true, /* query_id、abort_signal、ht
`ping` メソッドでは、標準的な `query` メソッドのパラメータのほとんどを指定できます。詳細は `PingParamsWithSelectQuery` の型定義を参照してください。
-### Close(Node.js のみ)
+### Close(Node.js のみ) {#close-nodejs-only}
開いているすべての接続を閉じ、リソースを解放します。Web 版では何も行われません。
@@ -884,7 +884,7 @@ ClickHouse の入力および出力フォーマットの完全な一覧は
- [Dynamic/Variant/JSON を扱う例](https://github.com/ClickHouse/clickhouse-js/blob/main/examples/dynamic_variant_json.ts)
- [Time/Time64 を扱う例](https://github.com/ClickHouse/clickhouse-js/blob/main/examples/time_time64.ts)
-### Date/Date32 型の注意事項
+### Date/Date32 型の注意事項 {#datedate32-types-caveats}
クライアントは値を挿入する際に追加の型変換を行わないため、`Date`/`Date32` 型のカラムには値を文字列としてのみ挿入できます。
@@ -902,7 +902,7 @@ await client.insert({
ただし、`DateTime` や `DateTime64` の列を使用している場合は、文字列と JS Date オブジェクトの両方を利用できます。JS Date オブジェクトは、`date_time_input_format` を `best_effort` に設定した状態で、そのまま `insert` に渡すことができます。詳細については、この[サンプル](https://github.com/ClickHouse/clickhouse-js/blob/main/examples/insert_js_dates.ts)を参照してください。
-### Decimal* 型の注意事項
+### Decimal* 型の注意事項 {#decimal-types-caveats}
`JSON*` 系のフォーマットを使用して Decimal 型の値を挿入できます。次のようにテーブルが定義されているとします:
@@ -953,7 +953,7 @@ await client.query({
詳しくは[この例](https://github.com/ClickHouse/clickhouse-js/blob/main/examples/insert_decimals.ts)を参照してください。
-### 整数型: Int64, Int128, Int256, UInt64, UInt128, UInt256
+### 整数型: Int64, Int128, Int256, UInt64, UInt128, UInt256 {#integral-types-int64-int128-int256-uint64-uint128-uint256}
サーバーはこれらの値を数値として受け取ることができますが、これらの型の最大値は `Number.MAX_SAFE_INTEGER` よりも大きいため、整数オーバーフローを避ける目的で、`JSON*` ファミリーの出力フォーマットでは文字列として返されます。
@@ -983,7 +983,7 @@ expect(await resultSet.json()).toEqual([ { number: 0 } ])
```
-## ClickHouse 設定
+## ClickHouse 設定 {#clickhouse-settings}
クライアントは [settings](/operations/settings/settings/) メカニズムを通じて ClickHouse の動作を調整できます。
設定はクライアントインスタンスのレベルで指定でき、その場合は ClickHouse に送信されるすべてのリクエストに適用されます。
@@ -1012,7 +1012,7 @@ client.query({
## 高度なトピック {#advanced-topics}
-### パラメータ付きクエリ
+### パラメータ付きクエリ {#queries-with-parameters}
パラメータ付きのクエリを作成し、クライアントアプリケーションからそれらに値を渡すことができます。これにより、クライアント側で特定の動的な値を埋め込んだクエリ文字列を組み立てる必要がなくなります。
@@ -1045,7 +1045,7 @@ await client.query({
詳細については、[https://clickhouse.com/docs/interfaces/cli#cli-queries-with-parameters-syntax](https://clickhouse.com/docs/interfaces/cli#cli-queries-with-parameters-syntax) を参照してください。
-### 圧縮
+### 圧縮 {#compression}
注意: リクエスト圧縮は現在 Web 版では利用できません。レスポンス圧縮は通常どおり動作します。Node.js 版は両方をサポートしています。
@@ -1066,7 +1066,7 @@ createClient({
* `request: true` は、クライアントから送信されるリクエストボディの圧縮を有効にします。デフォルト値: `request: false`
-### ロギング(Node.js のみ)
+### ロギング(Node.js のみ) {#logging-nodejs-only}
:::important
ロギングは実験的な機能であり、将来変更される可能性があります。
@@ -1124,7 +1124,7 @@ const client = createClient({
デフォルトの Logger 実装は[こちら](https://github.com/ClickHouse/clickhouse-js/blob/main/packages/client-common/src/logger.ts)で確認できます。
-### TLS 証明書(Node.js のみ)
+### TLS 証明書(Node.js のみ) {#tls-certificates-nodejs-only}
Node.js クライアントは、オプションで基本(認証局のみ)および相互(認証局とクライアント証明書の両方)の TLS をサポートします。
@@ -1166,7 +1166,7 @@ const client = createClient({
`keep_alive.idle_socket_ttl` を変更する場合は、サーバー/ロードバランサー側の Keep-Alive 設定と常に同期させたうえで、その値は**必ずそれより低く**設定し、サーバー側が先にオープンな接続をクローズしてしまうことが決してないようにしてください。
-#### `idle_socket_ttl` の調整
+#### `idle_socket_ttl` の調整 {#adjusting-idle_socket_ttl}
クライアントは `keep_alive.idle_socket_ttl` を 2500 ミリ秒に設定します。これは最も安全なデフォルトと考えられるためです。一方、サーバー側では、`config.xml` を変更しない場合、`keep_alive_timeout` が [ClickHouse 23.11 より前のバージョンでは最短 3 秒に設定されている場合があります](https://github.com/ClickHouse/ClickHouse/commit/1685cdcb89fe110b45497c7ff27ce73cc03e82d1)。
@@ -1235,7 +1235,7 @@ curl -v --data-binary "SELECT 1"
})
```
-### 読み取り専用ユーザー
+### 読み取り専用ユーザー {#read-only-users}
[readonly=1 ユーザー](/operations/settings/permissions-for-queries#readonly) でクライアントを使用する場合、レスポンス圧縮は有効化できません。`enable_http_compression` 設定が必要となるためです。次の構成はエラーが発生します。
@@ -1250,7 +1250,7 @@ const client = createClient({
`readonly=1` ユーザーの制限事項についてさらに詳しく説明している [例](https://github.com/ClickHouse/clickhouse-js/blob/main/examples/read_only_user.ts) を参照してください。
-### パス名付きプロキシ
+### パス名付きプロキシ {#proxy-with-a-pathname}
ClickHouse インスタンスがプロキシの背後にあり、たとえば [http://proxy:8123/clickhouse_server](http://proxy:8123/clickhouse_server) のように URL にパス名が含まれている場合は、`pathname` 設定オプションとして `clickhouse_server` を指定してください(先頭のスラッシュの有無は問いません)。そうせずに `url` に直接含めた場合は、それが `database` オプションとして解釈されます。`/my_proxy/db` のように複数セグメントを含めることもできます。
@@ -1262,7 +1262,7 @@ const client = createClient({
```
-### 認証付きリバースプロキシ
+### 認証付きリバースプロキシ {#reverse-proxy-with-authentication}
ClickHouse デプロイメントの前段に認証付きのリバースプロキシがある場合は、`http_headers` 設定を使用して、そのプロキシ側で必要なヘッダーを付与できます。
@@ -1289,7 +1289,7 @@ const client = createClient({
- `keep_alive.enabled` は、`Connection` ヘッダーのデフォルト値のみを制御します(`true` -> `Connection: keep-alive`、`false` -> `Connection: close`)。
- アイドル状態の keep-alive ソケット管理は(エージェントではなく個々のソケット自体に結び付いているため)引き続き機能しますが、`keep_alive.idle_socket_ttl` の値を `0` に設定することで、これを完全に無効にできるようになりました。
-#### カスタムエージェントの使用例
+#### カスタムエージェントの使用例 {#custom-agent-usage-examples}
証明書なしでカスタム HTTP(s) エージェントを使用する場合:
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/moose-olap.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/moose-olap.md
index 05083121fea..f4ec590bb50 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/moose-olap.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/moose-olap.md
@@ -11,7 +11,7 @@ doc_type: 'guide'
import CommunityMaintainedBadge from '@theme/badges/CommunityMaintained';
-# Moose OLAP を使用した ClickHouse 上での開発
+# Moose OLAP を使用した ClickHouse 上での開発 {#developing-on-clickhouse-with-moose-olap}
@@ -57,10 +57,10 @@ bash -i <(curl -fsSL https://fiveonefour.com/install.sh) moose
**重要**: 本番環境の ClickHouse には一切変更を加えません。これは、ClickHouse テーブルから派生したデータモデルを含む新しい Moose OLAP プロジェクトを初期化するだけです。
```bash
-# TypeScript 用
+# TypeScript 用 {#typescript}
moose init my-project --from-remote --language typescript
-# Python 用
+# Python 用 {#python}
moose init my-project --from-remote --language python
```
@@ -75,21 +75,21 @@ https://username:password@host:port/?database=database_name
まだ ClickHouse を稼働させていない場合は、ClickHouse Playground を使って Moose OLAP を試してみてください。
```bash
-# TypeScript 用
+# TypeScript 用 {#typescript}
moose init my-project --from-remote https://explorer:@play.clickhouse.com:443/?database=default --language typescript
-# Python 用
+# Python 用 {#python}
moose init my-project --from-remote https://explorer:@play.clickhouse.com:443/?database=default --language python
```
### 依存関係のインストール {#step-3-install-dependencies}
```bash
-# TypeScript 用
+# TypeScript 用 {#typescript}
cd my-project
npm install
-# Python 用
+# Python 用 {#python}
cd my-project
python3 -m venv .venv
source .venv/bin/activate
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/additional-options.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/additional-options.md
index 7ce1c92e959..5aaa05bc898 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/additional-options.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/additional-options.md
@@ -12,7 +12,7 @@ doc_type: 'reference'
ClickHouse Connect は、高度なユースケースに対応するためのさまざまな追加オプションを提供しています。
-## グローバル設定
+## グローバル設定 {#global-settings}
ClickHouse Connect の動作をグローバルに制御する設定はごく少数のみです。これらにはトップレベルの `common` パッケージからアクセスできます。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-inserting.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-inserting.md
index ad6c6f74108..d99d0353230 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-inserting.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-inserting.md
@@ -10,7 +10,7 @@ doc_type: 'reference'
## ClickHouse Connect を使ったデータの挿入: 高度な利用方法 {#inserting-data-with-clickhouse-connect--advanced-usage}
-### InsertContexts
+### InsertContexts {#insertcontexts}
ClickHouse Connect は、すべての挿入処理を `InsertContext` 内で実行します。`InsertContext` には、クライアントの `insert` メソッドに引数として渡されたすべての値が含まれます。さらに、`InsertContext` が最初に構築される際、ClickHouse Connect は、効率的な Native 形式での挿入に必要な挿入列のデータ型を取得します。複数回の挿入で同じ `InsertContext` を再利用することで、この「事前クエリ」を避けることができ、挿入処理をより高速かつ効率的に実行できます。
@@ -80,7 +80,7 @@ ClickHouse Connect には、一般的なデータ形式向けの専用挿入メ
NumPy 配列は有効なシーケンスのシーケンスであり、メインの `insert` メソッドにおける `data` 引数として使用できるため、専用メソッドは不要です。
:::
-#### Pandas DataFrame への挿入
+#### Pandas DataFrame への挿入 {#pandas-dataframe-insert}
```python
import clickhouse_connect
@@ -98,7 +98,7 @@ client.insert_df("users", df)
```
-#### PyArrow テーブルへの挿入
+#### PyArrow テーブルへの挿入 {#pyarrow-table-insert}
```python
import clickhouse_connect
@@ -116,7 +116,7 @@ client.insert_arrow("users", arrow_table)
```
-#### Arrow バックエンドを利用した DataFrame 挿入(pandas 2.x)
+#### Arrow バックエンドを利用した DataFrame 挿入(pandas 2.x) {#arrow-backed-dataframe-insert-pandas-2}
```python
import clickhouse_connect
@@ -124,7 +124,7 @@ import pandas as pd
client = clickhouse_connect.get_client()
-# パフォーマンス向上のためArrowベースのデータ型に変換
+# パフォーマンス向上のためArrowベースのデータ型に変換 {#convert-to-arrow-backed-dtypes-for-better-performance}
df = pd.DataFrame({
"id": [1, 2, 3],
"name": ["Alice", "Bob", "Joe"],
@@ -139,7 +139,7 @@ client.insert_df_arrow("users", df)
Python の `datetime.datetime` オブジェクトを ClickHouse の `DateTime` または `DateTime64` カラムに挿入する際、ClickHouse Connect はタイムゾーン情報を自動的に処理します。ClickHouse はすべての DateTime 値を内部的にはタイムゾーン情報を持たない Unix タイムスタンプ(エポックからの秒または小数秒)として保存するため、タイムゾーン変換は挿入時にクライアント側で自動的に行われます。
-#### タイムゾーン対応の datetime オブジェクト
+#### タイムゾーン対応の datetime オブジェクト {#timezone-aware-datetime-objects}
タイムゾーン情報を持つ Python の `datetime.datetime` オブジェクトを挿入すると、ClickHouse Connect は自動的に `.timestamp()` を呼び出して Unix タイムスタンプに変換し、タイムゾーンオフセットを正しく考慮します。つまり、任意のタイムゾーンの datetime オブジェクトを挿入しても、それらは UTC に対応するタイムスタンプとして正しく保存されます。
@@ -151,7 +151,7 @@ import pytz
client = clickhouse_connect.get_client()
client.command("CREATE TABLE events (event_time DateTime) ENGINE Memory")
-# タイムゾーンを認識するdatetimeオブジェクトを挿入
+# タイムゾーンを認識するdatetimeオブジェクトを挿入 {#insert-timezone-aware-datetime-objects}
denver_tz = pytz.timezone('America/Denver')
tokyo_tz = pytz.timezone('Asia/Tokyo')
@@ -164,10 +164,10 @@ data = [
client.insert('events', data, column_names=['event_time'])
results = client.query("SELECT * from events")
print(*results.result_rows, sep="\n")
-# 出力:
-# (datetime.datetime(2023, 6, 15, 10, 30),)
-# (datetime.datetime(2023, 6, 15, 16, 30),)
-# (datetime.datetime(2023, 6, 15, 1, 30),)
+# 出力: {#output}
+# (datetime.datetime(2023, 6, 15, 10, 30),) {#datetimedatetime2023-6-15-10-30}
+# (datetime.datetime(2023, 6, 15, 16, 30),) {#datetimedatetime2023-6-15-16-30}
+# (datetime.datetime(2023, 6, 15, 1, 30),) {#datetimedatetime2023-6-15-1-30}
```
この例では、3 つの datetime オブジェクトはそれぞれ異なるタイムゾーンを持つため、異なる時点を表します。各オブジェクトは対応する Unix タイムスタンプに正しく変換され、ClickHouse に保存されます。
@@ -177,7 +177,7 @@ pytz を使用する場合、タイムゾーン情報のない(naive な)dat
:::
-#### タイムゾーン情報を持たない datetime オブジェクト
+#### タイムゾーン情報を持たない datetime オブジェクト {#timezone-naive-datetime-objects}
タイムゾーン情報を持たない Python の `datetime.datetime` オブジェクト(`tzinfo` が設定されていないもの)を挿入すると、`.timestamp()` メソッドはそれをシステムのローカルタイムゾーンとして解釈します。曖昧さを避けるため、次のいずれかを推奨します。
@@ -192,18 +192,18 @@ import pytz
client = clickhouse_connect.get_client()
-# 推奨: 常にタイムゾーン対応のdatetimeを使用してください
+# 推奨: 常にタイムゾーン対応のdatetimeを使用してください {#recommended-always-use-timezone-aware-datetimes}
utc_time = datetime(2023, 6, 15, 10, 30, 0, tzinfo=pytz.UTC)
client.insert('events', [[utc_time]], column_names=['event_time'])
-# 代替方法: エポックタイムスタンプへ手動で変換する
+# 代替方法: エポックタイムスタンプへ手動で変換する {#alternative-convert-to-epoch-timestamp-manually}
naive_time = datetime(2023, 6, 15, 10, 30, 0)
epoch_timestamp = int(naive_time.replace(tzinfo=pytz.UTC).timestamp())
client.insert('events', [[epoch_timestamp]], column_names=['event_time'])
```
-#### タイムゾーンメタデータを持つ DateTime カラム
+#### タイムゾーンメタデータを持つ DateTime カラム {#datetime-columns-with-timezone-metadata}
ClickHouse のカラムはタイムゾーンメタデータ付きで定義できます(例: `DateTime('America/Denver')` や `DateTime64(3, 'Asia/Tokyo')`)。このメタデータはデータの保存方法には影響せず(データは引き続き UTC タイムスタンプとして保存されます)、ClickHouse からデータをクエリする際に使用されるタイムゾーンを制御します。
@@ -216,24 +216,24 @@ import pytz
client = clickhouse_connect.get_client()
-# ロサンゼルスタイムゾーンのメタデータを持つテーブルを作成
+# ロサンゼルスタイムゾーンのメタデータを持つテーブルを作成 {#create-table-with-los-angeles-timezone-metadata}
client.command("CREATE TABLE events (event_time DateTime('America/Los_Angeles')) ENGINE Memory")
-# ニューヨーク時刻を挿入(EDT 午前10:30、UTC では 14:30)
+# ニューヨーク時刻を挿入(EDT 午前10:30、UTC では 14:30) {#insert-a-new-york-time-1030-am-edt-which-is-1430-utc}
ny_tz = pytz.timezone("America/New_York")
data = ny_tz.localize(datetime(2023, 6, 15, 10, 30, 0))
client.insert("events", [[data]], column_names=["event_time"])
-# クエリで取得する際、時刻は自動的にロサンゼルスタイムゾーンに変換される
-# ニューヨーク午前10:30(UTC-4)= UTC 14:30 = ロサンゼルス午前7:30(UTC-7)
+# クエリで取得する際、時刻は自動的にロサンゼルスタイムゾーンに変換される {#when-queried-back-the-time-is-automatically-converted-to-los-angeles-timezone}
+# ニューヨーク午前10:30(UTC-4)= UTC 14:30 = ロサンゼルス午前7:30(UTC-7) {#1030-am-new-york-utc-4-1430-utc-730-am-los-angeles-utc-7}
results = client.query("select * from events")
print(*results.result_rows, sep="\n")
-# 出力:
-# (datetime.datetime(2023, 6, 15, 7, 30, tzinfo=),)
+# 出力: {#output}
+# (datetime.datetime(2023, 6, 15, 7, 30, tzinfo=),) {#datetimedatetime2023-6-15-7-30-tzinfodsttzinfo-americalos_angeles-pdt-1-day-170000-dst}
```
-## ファイルからの挿入
+## ファイルからの挿入 {#file-inserts}
`clickhouse_connect.driver.tools` パッケージには、既存の ClickHouse テーブルへファイルシステムから直接データを挿入できる `insert_file` メソッドが含まれています。パース処理は ClickHouse サーバー側で行われます。`insert_file` は次のパラメータを受け取ります:
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-querying.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-querying.md
index 5c9621d3a03..7961cadbfbf 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-querying.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-querying.md
@@ -10,7 +10,7 @@ doc_type: 'reference'
# ClickHouse Connect を使ったデータクエリの高度な使い方 {#querying-data-with-clickhouse-connect--advanced-usage}
-## QueryContexts
+## QueryContexts {#querycontexts}
ClickHouse Connect は通常のクエリを `QueryContext` 内で実行します。`QueryContext` には、ClickHouse データベースに対してクエリを構築するために使用される主要な構造と、結果を `QueryResult` またはその他の応答データ構造へと変換するために使用される設定が含まれます。これには、クエリ本体、パラメータ、設定、読み取りフォーマット、その他のプロパティが含まれます。
@@ -61,7 +61,7 @@ ClickHouse Connect は、主要な `query` メソッドからのすべてのデ
HTTP プロトコルの制約により、ブロックの処理速度が ClickHouse サーバーがデータをストリーミングする速度よりも大幅に遅い場合、ClickHouse サーバーは接続を閉じ、その結果として処理スレッドで例外 (Exception) がスローされます。これをある程度緩和するには、共通設定である `http_buffer_size` を使用して、HTTP ストリーミングバッファのバッファサイズ(デフォルトは 10 メガバイト)を増やします。この状況では、アプリケーションで利用可能なメモリが十分にある場合、大きな `http_buffer_size` の値でも問題ありません。`lz4` または `zstd` 圧縮を使用している場合、バッファ内のデータは圧縮された状態で保存されるため、これらの圧縮方式を利用することで、実質的に利用可能なバッファ容量を増やすことができます。
-### StreamContexts
+### StreamContexts {#streamcontexts}
`query_row_block_stream` のような `query_*_stream` メソッドはそれぞれ、Python のコンテキストマネージャ/ジェネレーターを組み合わせた ClickHouse の `StreamContext` オブジェクトを返します。基本的な使い方は次のとおりです。
@@ -77,7 +77,7 @@ with client.query_row_block_stream('SELECT pickup, dropoff, pickup_longitude, pi
`StreamContext` の `source` プロパティを使用して、親の `QueryResult` オブジェクトにアクセスできます。`QueryResult` には、列名やデータ型が含まれています。
-### ストリームの種類
+### ストリームの種類 {#stream-types}
`query_column_block_stream` メソッドは、ブロックをネイティブな Python データ型として保存されたカラムデータのシーケンスとして返します。上記の `taxi_trips` クエリを使用した場合、返されるデータはリストになり、そのリストの各要素は、対応するカラムのすべてのデータを含む別のリスト(またはタプル)になります。したがって `block[0]` は文字列だけを含むタプルになります。カラム指向フォーマットは、合計料金の合算のように、そのカラム内のすべての値に対する集約処理を行う用途で最もよく使用されます。
@@ -104,14 +104,14 @@ with df_stream:
### ストリーミングの例 {#streaming-examples}
-#### 行のストリーミング
+#### 行のストリーミング {#stream-rows}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# 大規模な結果セットを行単位でストリーミング
+# 大規模な結果セットを行単位でストリーミング {#stream-large-result-sets-row-by-row}
with client.query_rows_stream("SELECT number, number * 2 as doubled FROM system.numbers LIMIT 100000") as stream:
for row in stream:
print(row) # 各行を処理
@@ -123,14 +123,14 @@ with client.query_rows_stream("SELECT number, number * 2 as doubled FROM system.
```
-#### 行ブロックのストリーミング
+#### 行ブロックのストリーミング {#stream-row-blocks}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# 行をブロック単位でストリーミング(行単位より効率的)
+# 行をブロック単位でストリーミング(行単位より効率的) {#stream-in-blocks-of-rows-more-efficient-than-row-by-row}
with client.query_row_block_stream("SELECT number, number * 2 FROM system.numbers LIMIT 100000") as stream:
for block in stream:
print(f"Received block with {len(block)} rows")
@@ -140,14 +140,14 @@ with client.query_row_block_stream("SELECT number, number * 2 FROM system.number
```
-#### Pandas の DataFrame をストリーミングする
+#### Pandas の DataFrame をストリーミングする {#stream-pandas-dataframes}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリ結果をPandas DataFrameとしてストリーム処理
+# クエリ結果をPandas DataFrameとしてストリーム処理 {#stream-query-results-as-pandas-dataframes}
with client.query_df_stream("SELECT number, toString(number) AS str FROM system.numbers LIMIT 100000") as stream:
for df in stream:
# 各DataFrameブロックを処理
@@ -167,14 +167,14 @@ with client.query_df_stream("SELECT number, toString(number) AS str FROM system.
```
-#### Arrow バッチのストリーミング
+#### Arrow バッチのストリーミング {#stream-arrow-batches}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリ結果をArrowレコードバッチとしてストリーミング
+# クエリ結果をArrowレコードバッチとしてストリーミング {#stream-query-results-as-arrow-record-batches}
with client.query_arrow_stream("SELECT * FROM large_table") as stream:
for arrow_batch in stream:
# 各Arrowバッチを処理
@@ -189,7 +189,7 @@ with client.query_arrow_stream("SELECT * FROM large_table") as stream:
ClickHouse Connect は、NumPy、Pandas、Arrow のデータ構造を扱うための専用クエリメソッドを提供します。これらのメソッドを使用すると、手動で変換することなく、クエリ結果をこれらの広く利用されているデータ形式で直接取得できます。
-### NumPy クエリ
+### NumPy クエリ {#numpy-queries}
`query_np` メソッドは、クエリ結果を ClickHouse Connect の `QueryResult` ではなく、NumPy の配列として返します。
@@ -198,24 +198,24 @@ import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリはNumPy配列を返します
+# クエリはNumPy配列を返します {#query-returns-a-numpy-array}
np_array = client.query_np("SELECT number, number * 2 AS doubled FROM system.numbers LIMIT 5")
print(type(np_array))
-# 出力:
-#
+# 出力: {#output}
+# {#class-numpyndarray}
print(np_array)
-# 出力:
-# [[0 0]
-# [1 2]
-# [2 4]
-# [3 6]
-# [4 8]]
+# 出力: {#output}
+# [[0 0] {#0-0}
+# [1 2] {#1-2}
+# [2 4] {#2-4}
+# [3 6] {#3-6}
+# [4 8]] {#4-8}
```
-### Pandas クエリ
+### Pandas クエリ {#pandas-queries}
`query_df` メソッドは、ClickHouse Connect の `QueryResult` ではなく、Pandas の DataFrame としてクエリ結果を返します。
@@ -224,23 +224,23 @@ import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリはPandas DataFrameを返します
+# クエリはPandas DataFrameを返します {#query-returns-a-pandas-dataframe}
df = client.query_df("SELECT number, number * 2 AS doubled FROM system.numbers LIMIT 5")
print(type(df))
-# 出力:
+# 出力: {#output-class-pandascoreframedataframe}
print(df)
-# 出力:
-# number doubled
-# 0 0 0
-# 1 1 2
-# 2 2 4
-# 3 3 6
-# 4 4 8
+# 出力: {#output}
+# number doubled {#number-doubled}
+# 0 0 0 {#0-0-0}
+# 1 1 2 {#1-1-2}
+# 2 2 4 {#2-2-4}
+# 3 3 6 {#3-3-6}
+# 4 4 8 {#4-4-8}
```
-### PyArrow クエリ
+### PyArrow クエリ {#pyarrow-queries}
`query_arrow` メソッドは、クエリ結果を PyArrow テーブルとして返します。ClickHouse の `Arrow` フォーマットを直接利用するため、メインの `query` メソッドと共通する引数は `query`、`parameters`、`settings` の 3 つのみです。さらに、`use_strings` という追加の引数があり、Arrow テーブルが ClickHouse の String 型を文字列(True の場合)として扱うか、バイト列(False の場合)として扱うかを制御します。
@@ -249,21 +249,21 @@ import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリはPyArrow Tableを返します
+# クエリはPyArrow Tableを返します {#query-returns-a-pyarrow-table}
arrow_table = client.query_arrow("SELECT number, toString(number) AS str FROM system.numbers LIMIT 3")
print(type(arrow_table))
-# 出力:
-#
+# 出力: {#output}
+# {#class-pyarrowlibtable}
print(arrow_table)
-# 出力:
-# pyarrow.Table
-# number: uint64 not null
-# str: string not null
+# 出力: {#output}
+# pyarrow.Table {#pyarrowtable}
+# number: uint64 not null {#number-uint64-not-null}
+# str: string not null {#str-string-not-null}
# ----
-# number: [[0,1,2]]
-# str: [["0","1","2"]]
+# number: [[0,1,2]] {#number-012}
+# str: [["0","1","2"]] {#str-012}
```
@@ -276,36 +276,36 @@ ClickHouse Connect は、`query_df_arrow` メソッドと `query_df_arrow_stream
- `dataframe_library='polars'` の場合、Arrow テーブル(`pl.from_arrow`)から作成された Polars DataFrame を返します。これも同様に効率的であり、データに応じてゼロコピーになることがあります。
- `query_df_arrow_stream`: Arrow のストリームバッチから変換された DataFrame(pandas 2.x または Polars)のシーケンスとして結果をストリーミングします。
-#### Arrow バックエンドの DataFrame へのクエリ
+#### Arrow バックエンドの DataFrame へのクエリ {#query-to-arrow-backed-dataframe}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリはArrowデータ型を持つPandas DataFrameを返します(pandas 2.x が必要)
+# クエリはArrowデータ型を持つPandas DataFrameを返します(pandas 2.x が必要) {#query-returns-a-pandas-dataframe-with-arrow-dtypes-requires-pandas-2x}
df = client.query_df_arrow(
"SELECT number, toString(number) AS str FROM system.numbers LIMIT 3",
dataframe_library="pandas"
)
print(df.dtypes)
-# 出力:
-# number uint64[pyarrow]
-# str string[pyarrow]
-# dtype: object
+# 出力: {#output}
+# number uint64[pyarrow] {#number-uint64pyarrow}
+# str string[pyarrow] {#str-stringpyarrow}
+# dtype: object {#dtype-object}
-# またはPolarsを使用
+# またはPolarsを使用 {#or-use-polars}
polars_df = client.query_df_arrow(
"SELECT number, toString(number) AS str FROM system.numbers LIMIT 3",
dataframe_library="polars"
)
print(df.dtypes)
-# 出力:
-# [UInt64, String]
+# 出力: {#output}
+# [UInt64, String] {#uint64-string}
-# DataFrameをバッチでストリーミング(Polarsの例)
+# DataFrameをバッチでストリーミング(Polarsの例) {#streaming-into-batches-of-dataframes-polars-shown}
with client.query_df_arrow_stream(
"SELECT number, toString(number) AS str FROM system.numbers LIMIT 100000", dataframe_library="polars"
) as stream:
@@ -326,48 +326,48 @@ with client.query_df_arrow_stream(
- pandas の要件: Arrow バックエンドの dtype を利用するには pandas 2.x が必要です。古いバージョンの pandas を使用している場合は、代わりに `query_df`(非 Arrow)を使用してください。
- 文字列とバイナリ: `use_strings` オプション(サーバー設定 `output_format_arrow_string_as_string` でサポートされている場合)は、ClickHouse の `String` カラムを Arrow の文字列として返すか、バイナリとして返すかを制御します。
-#### 型が一致しない ClickHouse/Arrow 変換の例
+#### 型が一致しない ClickHouse/Arrow 変換の例 {#mismatched-clickhousearrow-type-conversion-examples}
ClickHouse がカラムを生のバイナリデータ(例: `FIXED_SIZE_BINARY` や `BINARY`)として返す場合、これらのバイト列を適切な Python 型へ変換する責任はアプリケーションコード側にあります。以下の例は、いくつかの変換は DataFrame ライブラリの API を使って実現可能である一方、他の変換については `struct.unpack` のような純粋な Python の手法が必要になる場合があることを示します(これはパフォーマンスを犠牲にしますが、柔軟性を維持できます)。
`Date` カラムは `UINT16`(Unix エポック 1970‑01‑01 からの日数)として返されることがあります。DataFrame 内での変換は効率的かつ容易です。
```python
-# Polars
+# Polars {#polars}
df = df.with_columns(pl.col("event_date").cast(pl.Date))
-# Pandas
+# Pandas {#pandas}
df["event_date"] = pd.to_datetime(df["event_date"], unit="D")
```
`Int128` のような列は、生のバイト列を持つ `FIXED_SIZE_BINARY` として読み込まれる場合があります。Polars は 128 ビット整数をネイティブにサポートしています。
```python
-# Polars - ネイティブサポート
+# Polars - ネイティブサポート {#polars-native-support}
df = df.with_columns(pl.col("data").bin.reinterpret(dtype=pl.Int128, endianness="little"))
```
NumPy 2.3 の時点では公開されている 128 ビット整数の dtype が存在しないため、純粋な Python にフォールバックする必要があり、次のようにできます。
```python
-# Int128カラム(dtype fixed_size_binary[16][pyarrow])を持つpandasデータフレームがあると仮定
+# Int128カラム(dtype fixed_size_binary[16][pyarrow])を持つpandasデータフレームがあると仮定 {#assuming-we-have-a-pandas-dataframe-with-an-int128-column-of-dtype-fixed_size_binary16pyarrow}
print(df)
-# 出力:
-# str_col int_128_col
-# 0 num1 b'\\x15}\\xda\\xeb\\x18ZU\\x0fn\\x05\\x01\\x00\\x00\\x00...
-# 1 num2 b'\\x08\\x00\\x00\\x00\\x00\\x00\\x00\\x00\\x00\\x00\\x00...
-# 2 num3 b'\\x15\\xdfp\\x81r\\x9f\\x01\\x00\\x00\\x00\\x00\\x00\\x...
+# 出力: {#output}
+# str_col int_128_col {#str_col-int_128_col}
+# 0 num1 b'\\x15}\\xda\\xeb\\x18ZU\\x0fn\\x05\\x01\\x00\\x00\\x00... {#0-num1-bx15xdaxebx18zux0fnx05x01x00x00x00}
+# 1 num2 b'\\x08\\x00\\x00\\x00\\x00\\x00\\x00\\x00\\x00\\x00\\x00... {#1-num2-bx08x00x00x00x00x00x00x00x00x00x00}
+# 2 num3 b'\\x15\\xdfp\\x81r\\x9f\\x01\\x00\\x00\\x00\\x00\\x00\\x... {#2-num3-bx15xdfpx81rx9fx01x00x00x00x00x00x}
print([int.from_bytes(n, byteorder="little") for n in df["int_128_col"].to_list()])
-# 出力:
-# [1234567898765432123456789, 8, 456789123456789]
+# 出力: {#output}
+# [1234567898765432123456789, 8, 456789123456789] {#1234567898765432123456789-8-456789123456789}
```
重要なポイントは、アプリケーションコードは、選択した DataFrame ライブラリの機能と許容可能なパフォーマンス上のトレードオフに基づいて、これらの変換を処理しなければならないということです。DataFrame ネイティブな変換が利用できない場合は、純粋な Python ベースのアプローチが引き続き選択肢として残ります。
-## 読み取りフォーマット
+## 読み取りフォーマット {#read-formats}
読み取りフォーマットは、クライアントの `query`、`query_np`、`query_df` メソッドから返される値のデータ型を制御します(`raw_query` と `query_arrow` は ClickHouse から受信したデータを変更しないため、フォーマット制御は適用されません)。たとえば、UUID の読み取りフォーマットをデフォルトの `native` フォーマットから代替の `string` フォーマットに変更すると、UUID 型カラムに対する ClickHouse のクエリ結果は、Python の UUID オブジェクトではなく、(標準的な 8-4-4-4-12 の RFC 1422 形式を使用した)文字列値として返されます。
@@ -380,24 +380,24 @@ print([int.from_bytes(n, byteorder="little") for n in df["int_128_col"].to_list(
```python
from clickhouse_connect.datatypes.format import set_read_format
-# IPv6とIPv4の両方の値を文字列として返す
+# IPv6とIPv4の両方の値を文字列として返す {#return-both-ipv6-and-ipv4-values-as-strings}
set_read_format('IPv*', 'string')
-# すべてのDate型を基底のエポック秒またはエポック日として返す
+# すべてのDate型を基底のエポック秒またはエポック日として返す {#return-all-date-types-as-the-underlying-epoch-second-or-epoch-day}
set_read_format('Date*', 'int')
```
* クエリ全体に対してオプションの `query_formats` 辞書引数を使用する方法。この場合、指定したデータ型の任意の列(またはサブカラム)には、設定されたフォーマットが適用されます。
```python
-# UUID列を文字列として返す
+# UUID列を文字列として返す {#return-any-uuid-column-as-a-string}
client.query('SELECT user_id, user_uuid, device_uuid from users', query_formats={'UUID': 'string'})
```
* 特定のカラム内の値に対しては、オプションの `column_formats` 辞書引数を使用します。キーには ClickHouse が返すカラム名を指定し、値にはデータカラム用のフォーマット、または ClickHouse の型名をキー、クエリフォーマットを値とする第2レベルの「format」辞書を指定します。この第2レベルの辞書は、Tuple や Map のようなネストされたカラム型に対して使用できます。
```python
-# `dev_address`列のIPv6値を文字列として返す
+# `dev_address`列のIPv6値を文字列として返す {#return-ipv6-values-in-the-dev_address-column-as-strings}
client.query('SELECT device_id, dev_address, gw_address from devices', column_formats={'dev_address':'string'})
```
@@ -432,7 +432,7 @@ client.query('SELECT device_id, dev_address, gw_address from devices', column_fo
| Variant | object | - | 値に保存されている ClickHouse データ型に対応する Python 型を返します |
| Dynamic | object | - | 値に保存されている ClickHouse データ型に対応する Python 型を返します |
-## 外部データ
+## 外部データ {#external-data}
ClickHouse のクエリは、任意の ClickHouse 対応フォーマットの外部データを受け付けることができます。このバイナリデータは、データ処理に使用するためにクエリ文字列と一緒に送信されます。External Data 機能の詳細については[こちら](/engines/table-engines/special/external-data.md)を参照してください。クライアントの `query*` メソッドは、この機能を利用するためにオプションの `external_data` パラメータを受け付けます。`external_data` パラメータの値は `clickhouse_connect.driver.external.ExternalData` オブジェクトである必要があります。このオブジェクトのコンストラクタは、次の引数を受け付けます:
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-usage.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-usage.md
index 2b0d9cf43be..a2594f5f662 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-usage.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/advanced-usage.md
@@ -47,7 +47,7 @@ ClickHouse データとネイティブまたはサードパーティのデータ
指定されたフォーマットおよび圧縮方式に `insert_block` が従っていることを保証する責任は呼び出し側にあります。ClickHouse Connect は、ファイルアップロードや PyArrow Tables に対してこれらの `raw_insert` を使用し、パース処理を ClickHouse サーバーに委譲します。
-## クエリ結果をファイルとして保存する
+## クエリ結果をファイルとして保存する {#saving-query-results-as-files}
`raw_stream` メソッドを使用すると、ClickHouse からローカルファイルシステムへファイルを直接ストリーミングできます。たとえば、クエリ結果を CSV ファイルとして保存する場合は、次のコードスニペットを使用します。
@@ -86,7 +86,7 @@ ClickHouse Connect は、マルチスレッド、マルチプロセス、さら
さらに、2 つ以上のクエリや INSERT が同時に実行中のアプリケーションでは、念頭に置くべき点が 2 つあります。1 つ目はクエリ/INSERT に関連付けられた ClickHouse の「セッション」であり、2 つ目は ClickHouse Connect クライアントインスタンスによって使用される HTTP 接続プールです。
-## AsyncClient ラッパー
+## AsyncClient ラッパー {#asyncclient-wrapper}
ClickHouse Connect は通常の `Client` に対する非同期ラッパーを提供しており、`asyncio` 環境でクライアントを使用できるようにします。
@@ -117,7 +117,7 @@ asyncio.run(main())
関連項目: [run_async の例](https://github.com/ClickHouse/clickhouse-connect/blob/main/examples/run_async.py)。
-## ClickHouse セッション ID の管理
+## ClickHouse セッション ID の管理 {#managing-clickhouse-session-ids}
各 ClickHouse クエリは、ClickHouse の「セッション」コンテキスト内で実行されます。セッションは現在、次の 2 つの目的で使用されています。
@@ -143,7 +143,7 @@ client = clickhouse_connect.get_client(host='somehost.com', user='dbuser', passw
この場合、ClickHouse Connect は `session_id` を送信せず、サーバーは個々のリクエストを同じセッションに属するものとして扱いません。一時テーブルおよびセッションレベルの設定は、リクエスト間で保持されません。
-## HTTP コネクションプールのカスタマイズ
+## HTTP コネクションプールのカスタマイズ {#customizing-the-http-connection-pool}
ClickHouse Connect は、サーバーへの下位レベルの HTTP 接続を処理するために `urllib3` のコネクションプールを使用します。デフォルトでは、すべてのクライアントインスタンスが同じコネクションプールを共有しており、これはほとんどのユースケースに対して十分です。このデフォルトプールは、アプリケーションで使用される各 ClickHouse サーバーごとに最大 8 個の HTTP Keep-Alive 接続を維持します。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/driver-api.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/driver-api.md
index e51fe684a33..06f0503a0bc 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/driver-api.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/driver-api.md
@@ -77,7 +77,7 @@ doc_type: 'reference'
各クエリとともに送信可能なその他の ClickHouse 設定については、[ClickHouse のドキュメント](/operations/settings/settings.md) を参照してください。
-### クライアント作成の例
+### クライアント作成の例 {#client-creation-examples}
* パラメータを指定しない場合、ClickHouse Connect クライアントは `localhost` のデフォルト HTTP ポートに、デフォルトユーザーでパスワードなしの状態で接続します。
@@ -86,7 +86,7 @@ import clickhouse_connect
client = clickhouse_connect.get_client()
print(client.server_version)
-# 出力: '22.10.1.98'
+# 出力: '22.10.1.98' {#output-2210198}
```
* HTTPS で保護された外部 ClickHouse サーバーへの接続
@@ -96,7 +96,7 @@ import clickhouse_connect
client = clickhouse_connect.get_client(host='play.clickhouse.com', secure=True, port=443, user='play', password='clickhouse')
print(client.command('SELECT timezone()'))
-# 出力: 'Etc/UTC'
+# 出力: 'Etc/UTC' {#output-etcutc}
```
* セッション ID やその他のカスタム接続パラメータ、ClickHouse の設定を指定して接続する。
@@ -115,7 +115,7 @@ client = clickhouse_connect.get_client(
settings={'distributed_ddl_task_timeout':300},
)
print(client.database)
-# 出力: 'github'
+# 出力: 'github' {#output-github}
```
@@ -130,28 +130,28 @@ ClickHouse Connect クライアントの作成は、接続の確立、サーバ
- **適切にクリーンアップする**: シャットダウン時には必ずクライアントをクローズし、コネクションプールのリソースを解放する
- **可能な限り共有する**: 1 つのクライアントで、そのコネクションプールを通じて多数の同時クエリを処理できる(スレッド処理に関する注意点は以下を参照)
-### 基本パターン
+### 基本パターン {#basic-patterns}
**✅ 良い例: 単一のクライアントを再利用する**
```python
import clickhouse_connect
-# 起動時に一度作成
+# 起動時に一度作成 {#create-once-at-startup}
client = clickhouse_connect.get_client(host='my-host', username='default', password='password')
-# すべてのクエリで再利用
+# すべてのクエリで再利用 {#reuse-for-all-queries}
for i in range(1000):
result = client.query('SELECT count() FROM users')
-# シャットダウン時にクローズ
+# シャットダウン時にクローズ {#close-on-shutdown}
client.close()
```
**❌ 悪い例: クライアントを毎回新規作成する**
```python
-# 悪い例: 1000個のクライアントを作成し、高コストな初期化オーバーヘッドが発生
+# 悪い例: 1000個のクライアントを作成し、高コストな初期化オーバーヘッドが発生 {#bad-creates-1000-clients-with-expensive-initialization-overhead}
for i in range(1000):
client = clickhouse_connect.get_client(host='my-host', username='default', password='password')
result = client.query('SELECT count() FROM users')
@@ -159,7 +159,7 @@ for i in range(1000):
```
-### マルチスレッドアプリケーション
+### マルチスレッドアプリケーション {#multi-threaded-applications}
:::warning
クライアントインスタンスは、セッション ID を使用している場合は**スレッドセーフではありません**。デフォルトでは、クライアントには自動生成されたセッション ID が付与されており、同じセッション内でクエリを同時に実行すると `ProgrammingError` が発生します。
@@ -171,7 +171,7 @@ for i in range(1000):
import clickhouse_connect
import threading
-# オプション1: セッションを無効化(共有クライアント使用時に推奨)
+# オプション1: セッションを無効化(共有クライアント使用時に推奨) {#option-1-disable-sessions-recommended-for-shared-clients}
client = clickhouse_connect.get_client(
host='my-host',
username='default',
@@ -192,17 +192,17 @@ for t in threads:
t.join()
client.close()
-# 出力:
-# Thread 0: 0
-# Thread 7: 7
-# Thread 1: 1
-# Thread 9: 9
-# Thread 4: 4
-# Thread 2: 2
-# Thread 8: 8
-# Thread 5: 5
-# Thread 6: 6
-# Thread 3: 3
+# 出力: {#output}
+# Thread 0: 0 {#thread-0-0}
+# Thread 7: 7 {#thread-7-7}
+# Thread 1: 1 {#thread-1-1}
+# Thread 9: 9 {#thread-9-9}
+# Thread 4: 4 {#thread-4-4}
+# Thread 2: 2 {#thread-2-2}
+# Thread 8: 8 {#thread-8-8}
+# Thread 5: 5 {#thread-5-5}
+# Thread 6: 6 {#thread-6-6}
+# Thread 3: 3 {#thread-3-3}
```
**セッションの代替手段:** セッションが必要な場合(例: 一時テーブル用)、スレッドごとに個別のクライアントを作成してください。
@@ -217,7 +217,7 @@ def worker(thread_id):
```
-### 適切なクリーンアップ
+### 適切なクリーンアップ {#proper-cleanup}
シャットダウン時には必ずクライアントを閉じてください。`client.close()` は、クライアントが自身のプールマネージャーを所有している場合(たとえばカスタム TLS/プロキシオプションを指定して作成した場合)にのみ、クライアントを解放し、プールされた HTTP 接続を閉じます。デフォルトの共有プールを使用している場合は、`client.close_connections()` を使用してソケットを明示的に閉じてください。そうしない場合でも、接続はアイドル時間の経過およびプロセス終了時に自動的にクリーンアップされます。
@@ -255,7 +255,7 @@ with clickhouse_connect.get_client(host='my-host', username='default', password=
ClickHouse Connect クライアントの `query*` および `command` メソッドは、Python の式を ClickHouse の値の式にバインドするために使用される、オプションの `parameters` キーワード引数を受け取ります。2 種類のバインド方式が利用できます。
-#### サーバーサイドバインディング
+#### サーバーサイドバインディング {#server-side-binding}
ClickHouse は、ほとんどのクエリ値に対して [サーバーサイドバインディング](/interfaces/cli.md#cli-queries-with-parameters) をサポートしており、バインドされた値はクエリとは別に HTTP クエリパラメータとして送信されます。ClickHouse Connect は、`{:}` 形式のバインディング式を検出すると、適切なクエリパラメータを追加します。サーバーサイドバインディングでは、`parameters` 引数には Python の辞書型を指定します。
@@ -284,7 +284,7 @@ WHERE date >= '2022-10-01 15:20:05'
:::
-#### クライアントサイドバインディング
+#### クライアントサイドバインディング {#client-side-binding}
ClickHouse Connect はクライアントサイドでのパラメータバインディングにも対応しており、テンプレート化された SQL クエリを生成する際に、より柔軟にクエリを生成できます。クライアントサイドバインディングでは、`parameters` 引数は辞書またはシーケンスである必要があります。クライアントサイドバインディングでは、パラメータ置換に Python の ["printf" 形式](https://docs.python.org/3/library/stdtypes.html#old-string-formatting)の文字列フォーマットを使用します。
@@ -349,7 +349,7 @@ DateTime64 引数(サブ秒精度を持つ ClickHouse の型)をバインド
:::
-### Settings 引数
+### Settings 引数 {#settings-argument-1}
すべての主要な ClickHouse Connect Client の「insert」および「select」メソッドは、指定した SQL ステートメントに対して ClickHouse サーバーの [ユーザー設定](/operations/settings/settings.md) を渡すための、省略可能な `settings` キーワード引数を受け取ります。`settings` 引数は辞書型である必要があります。各要素は ClickHouse の設定名と、その設定に対応する値です。値は、サーバーにクエリパラメータとして送信される際に文字列へ変換される点に注意してください。
@@ -380,69 +380,69 @@ client.query("SELECT event_type, sum(timeout) FROM event_errors WHERE event_time
### コマンド例 {#command-examples}
-#### DDL ステートメント
+#### DDL ステートメント {#ddl-statements}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# テーブルを作成する
+# テーブルを作成する {#create-a-table}
result = client.command("CREATE TABLE test_command (col_1 String, col_2 DateTime) ENGINE MergeTree ORDER BY tuple()")
print(result) # query_id を含む QuerySummary を返す
-# テーブル定義を表示する
+# テーブル定義を表示する {#show-table-definition}
result = client.command("SHOW CREATE TABLE test_command")
print(result)
-# 出力:
-# CREATE TABLE default.test_command
+# 出力: {#output}
+# CREATE TABLE default.test_command {#create-table-defaulttest_command}
# (
-# `col_1` String,
-# `col_2` DateTime
+# `col_1` String, {#col_1-string}
+# `col_2` DateTime {#col_2-datetime}
# )
-# ENGINE = MergeTree
-# ORDER BY tuple()
-# SETTINGS index_granularity = 8192
+# ENGINE = MergeTree {#engine-mergetree}
+# ORDER BY tuple() {#order-by-tuple}
+# SETTINGS index_granularity = 8192 {#settings-index_granularity-8192}
-# テーブルを削除する
+# テーブルを削除する {#drop-table}
client.command("DROP TABLE test_command")
```
-#### 単一値を返すシンプルなクエリ
+#### 単一値を返すシンプルなクエリ {#simple-queries-returning-single-values}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# 単一値の結果
+# 単一値の結果 {#single-value-result}
count = client.command("SELECT count() FROM system.tables")
print(count)
-# 出力: 151
+# 出力: 151 {#output-151}
-# サーバーバージョン
+# サーバーバージョン {#server-version}
version = client.command("SELECT version()")
print(version)
-# 出力: "25.8.2.29"
+# 出力: "25.8.2.29" {#output-258229}
```
-#### パラメーター付きコマンド
+#### パラメーター付きコマンド {#commands-with-parameters}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# クライアント側パラメータを使用
+# クライアント側パラメータを使用 {#using-client-side-parameters}
table_name = "system"
result = client.command(
"SELECT count() FROM system.tables WHERE database = %(db)s",
parameters={"db": table_name}
)
-# サーバー側パラメータを使用
+# サーバー側パラメータを使用 {#using-server-side-parameters}
result = client.command(
"SELECT count() FROM system.tables WHERE database = {db:String}",
parameters={"db": "system"}
@@ -450,14 +450,14 @@ result = client.command(
```
-#### 設定付きのコマンド
+#### 設定付きのコマンド {#commands-with-settings}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# 特定の設定でコマンドを実行する
+# 特定の設定でコマンドを実行する {#execute-command-with-specific-settings}
result = client.command(
"OPTIMIZE TABLE large_table FINAL",
settings={"optimize_throw_if_noop": 1}
@@ -487,33 +487,33 @@ result = client.command(
### クエリ例 {#query-examples}
-#### 基本クエリ
+#### 基本クエリ {#basic-query}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# シンプルなSELECTクエリ
+# シンプルなSELECTクエリ {#simple-select-query}
result = client.query("SELECT name, database FROM system.tables LIMIT 3")
-# 結果を行として取得
+# 結果を行として取得 {#access-results-as-rows}
for row in result.result_rows:
print(row)
-# 出力:
-# ('CHARACTER_SETS', 'INFORMATION_SCHEMA')
-# ('COLLATIONS', 'INFORMATION_SCHEMA')
-# ('COLUMNS', 'INFORMATION_SCHEMA')
+# 出力: {#output}
+# ('CHARACTER_SETS', 'INFORMATION_SCHEMA') {#character_sets-information_schema}
+# ('COLLATIONS', 'INFORMATION_SCHEMA') {#collations-information_schema}
+# ('COLUMNS', 'INFORMATION_SCHEMA') {#columns-information_schema}
-# カラム名と型を取得
+# カラム名と型を取得 {#access-column-names-and-types}
print(result.column_names)
-# 出力: ("name", "database")
+# 出力: ("name", "database") {#output-name-database}
print([col_type.name for col_type in result.column_types])
-# 出力: ['String', 'String']
+# 出力: ['String', 'String'] {#output-string-string}
```
-#### クエリ結果へのアクセス
+#### クエリ結果へのアクセス {#accessing-query-results}
```python
import clickhouse_connect
@@ -522,59 +522,59 @@ client = clickhouse_connect.get_client()
result = client.query("SELECT number, toString(number) AS str FROM system.numbers LIMIT 3")
-# 行指向アクセス(デフォルト)
+# 行指向アクセス(デフォルト) {#row-oriented-access-default}
print(result.result_rows)
-# 出力: [[0, "0"], [1, "1"], [2, "2"]]
+# 出力: [[0, "0"], [1, "1"], [2, "2"]] {#output-0-0-1-1-2-2}
-# 列指向アクセス
+# 列指向アクセス {#column-oriented-access}
print(result.result_columns)
-# 出力: [[0, 1, 2], ["0", "1", "2"]]
+# 出力: [[0, 1, 2], ["0", "1", "2"]] {#output-0-1-2-0-1-2}
-# 名前付き結果(辞書のリスト)
+# 名前付き結果(辞書のリスト) {#named-results-list-of-dictionaries}
for row_dict in result.named_results():
print(row_dict)
-# 出力:
-# {"number": 0, "str": "0"}
-# {"number": 1, "str": "1"}
-# {"number": 2, "str": "2"}
+# 出力: {#output}
+# {"number": 0, "str": "0"} {#number-0-str-0}
+# {"number": 1, "str": "1"} {#number-1-str-1}
+# {"number": 2, "str": "2"} {#number-2-str-2}
-# 辞書形式で最初の行を取得
+# 辞書形式で最初の行を取得 {#first-row-as-dictionary}
print(result.first_item)
-# 出力: {"number": 0, "str": "0"}
+# 出力: {"number": 0, "str": "0"} {#output-number-0-str-0}
-# タプル形式で最初の行を取得
+# タプル形式で最初の行を取得 {#first-row-as-tuple}
print(result.first_row)
-# 出力: (0, "0")
+# 出力: (0, "0") {#output-0-0}
```
-#### クライアントサイドパラメータを使用したクエリ
+#### クライアントサイドパラメータを使用したクエリ {#query-with-client-side-parameters}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# 辞書パラメータの使用(printf形式)
+# 辞書パラメータの使用(printf形式) {#using-dictionary-parameters-printf-style}
query = "SELECT * FROM system.tables WHERE database = %(db)s AND name LIKE %(pattern)s"
parameters = {"db": "system", "pattern": "%query%"}
result = client.query(query, parameters=parameters)
-# タプルパラメータの使用
+# タプルパラメータの使用 {#using-tuple-parameters}
query = "SELECT * FROM system.tables WHERE database = %s LIMIT %s"
parameters = ("system", 5)
result = client.query(query, parameters=parameters)
```
-#### サーバー側パラメータを使ったクエリ
+#### サーバー側パラメータを使ったクエリ {#query-with-server-side-parameters}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# サーバーサイドバインディング(より安全で、SELECTクエリのパフォーマンスが向上)
+# サーバーサイドバインディング(より安全で、SELECTクエリのパフォーマンスが向上) {#server-side-binding-more-secure-better-performance-for-select-queries}
query = "SELECT * FROM system.tables WHERE database = {db:String} AND name = {tbl:String}"
parameters = {"db": "system", "tbl": "query_log"}
@@ -582,14 +582,14 @@ result = client.query(query, parameters=parameters)
```
-#### 設定付きクエリの実行
+#### 設定付きクエリの実行 {#query-with-settings}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# クエリと一緒にClickHouse設定を渡す
+# クエリと一緒にClickHouse設定を渡す {#pass-clickhouse-settings-with-the-query}
result = client.query(
"SELECT sum(number) FROM numbers(1000000)",
settings={
@@ -658,14 +658,14 @@ NumPy 配列は有効な「Sequence of Sequences」であり、メインの `ins
以下の例では、スキーマ `(id UInt32, name String, age UInt8)` を持つ既存のテーブル `users` が存在すると仮定します。
-#### 基本的な行指向挿入
+#### 基本的な行指向挿入 {#basic-row-oriented-insert}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# 行指向データ: 各内部リストが1行に対応
+# 行指向データ: 各内部リストが1行に対応 {#row-oriented-data-each-inner-list-is-a-row}
data = [
[1, "Alice", 25],
[2, "Bob", 30],
@@ -676,14 +676,14 @@ client.insert("users", data, column_names=["id", "name", "age"])
```
-#### カラム指向の挿入
+#### カラム指向の挿入 {#column-oriented-insert}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# カラム指向データ: 各内部リストが1つのカラムに対応
+# カラム指向データ: 各内部リストが1つのカラムに対応 {#column-oriented-data-each-inner-list-is-a-column}
data = [
[1, 2, 3], # idカラム
["Alice", "Bob", "Joe"], # nameカラム
@@ -694,14 +694,14 @@ client.insert("users", data, column_names=["id", "name", "age"], column_oriented
```
-#### 明示的な列型指定による INSERT
+#### 明示的な列型指定による INSERT {#insert-with-explicit-column-types}
```python
import clickhouse_connect
client = clickhouse_connect.get_client()
-# サーバーへのDESCRIBEクエリを回避する場合に有用
+# サーバーへのDESCRIBEクエリを回避する場合に有用 {#useful-when-you-want-to-avoid-a-describe-query-to-the-server}
data = [
[1, "Alice", 25],
[2, "Bob", 30],
@@ -717,7 +717,7 @@ client.insert(
```
-#### 特定のデータベースに挿入する
+#### 特定のデータベースに挿入する {#insert-into-specific-database}
```python
import clickhouse_connect
@@ -729,7 +729,7 @@ data = [
[2, "Bob", 30],
]
-# 特定のデータベースのテーブルにデータを挿入
+# 特定のデータベースのテーブルにデータを挿入 {#insert-into-a-table-in-a-specific-database}
client.insert(
"users",
data,
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/index.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/index.md
index 6ba6852e3db..e42a13a66bb 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/index.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/index.md
@@ -14,7 +14,7 @@ import Tabs from '@theme/Tabs';
import TabItem from '@theme/TabItem';
import CodeBlock from '@theme/CodeBlock';
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
# Introduction {#introduction}
@@ -80,7 +80,7 @@ ClickHouse への接続方法として、次の 2 つの例を示します。
- localhost 上で動作している ClickHouse サーバーに接続する場合
- ClickHouse Cloud サービスに接続する場合
-#### ClickHouse Connect クライアント インスタンスを使用して localhost 上の ClickHouse サーバーに接続する:
+#### ClickHouse Connect クライアント インスタンスを使用して localhost 上の ClickHouse サーバーに接続する: {#use-a-clickhouse-connect-client-instance-to-connect-to-a-clickhouse-server-on-localhost}
```python
import clickhouse_connect
@@ -89,7 +89,7 @@ client = clickhouse_connect.get_client(host='localhost', username='default', pas
```
-#### ClickHouse Connect クライアントインスタンスを使用して ClickHouse Cloud サービスに接続します:
+#### ClickHouse Connect クライアントインスタンスを使用して ClickHouse Cloud サービスに接続します: {#use-a-clickhouse-connect-client-instance-to-connect-to-a-clickhouse-cloud-service}
:::tip
先ほど収集した接続情報を使用してください。ClickHouse Cloud サービスでは TLS が必須となるため、ポート 8443 を使用してください。
@@ -102,7 +102,7 @@ client = clickhouse_connect.get_client(host='HOSTNAME.clickhouse.cloud', port=84
```
-### データベースを操作する
+### データベースを操作する {#interact-with-your-database}
ClickHouse の SQL コマンドを実行するには、クライアントの `command` メソッドを使用します。
@@ -124,5 +124,5 @@ ClickHouse SQL を使用してデータを取得するには、クライアン
```python
result = client.query('SELECT max(key), avg(metric) FROM new_table')
print(result.result_rows)
-# 出力: [(2000, -50.9035)]
+# 出力: [(2000, -50.9035)] {#output-2000-509035}
```
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/sqlalchemy.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/sqlalchemy.md
index a5c48aeb9ff..19fd3e4cea7 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/sqlalchemy.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/python/sqlalchemy.md
@@ -10,7 +10,7 @@ doc_type: 'reference'
ClickHouse Connect には、コアドライバ上に実装された SQLAlchemy ダイアレクト(`clickhousedb`)が含まれています。これは SQLAlchemy Core API を対象としており、SQLAlchemy 1.4.40 以降および 2.0.x をサポートします。
-## SQLAlchemy で接続する
+## SQLAlchemy で接続する {#sqlalchemy-connect}
`clickhousedb://` または `clickhousedb+connect://` のいずれかの URL を指定してエンジンを作成します。クエリパラメータは、ClickHouse の設定、クライアントオプション、および HTTP/TLS トランスポートオプションに対応します。
@@ -35,7 +35,7 @@ URL/クエリパラメータに関する注意:
サポートされているオプションの全一覧については、以下のセクションにある [Connection arguments and Settings](driver-api.md#connection-arguments) を参照してください。これらは SQLAlchemy の DSN で指定することもできます。
-## コアクエリ
+## コアクエリ {#sqlalchemy-core-queries}
このダイアレクトは、結合、フィルタリング、並べ替え、LIMIT/OFFSET、`DISTINCT` を伴う SQLAlchemy Core の `SELECT` クエリをサポートします。
@@ -46,11 +46,11 @@ metadata = MetaData(schema="mydb")
users = Table("users", metadata, autoload_with=engine)
orders = Table("orders", metadata, autoload_with=engine)
-# 基本的なSELECT
+# 基本的なSELECT {#basic-select}
with engine.begin() as conn:
rows = conn.execute(select(users.c.id, users.c.name).order_by(users.c.id).limit(10)).fetchall()
-# JOIN(INNER/LEFT OUTER/FULL OUTER/CROSS)
+# JOIN(INNER/LEFT OUTER/FULL OUTER/CROSS) {#joins-innerleft-outerfull-outercross}
with engine.begin() as conn:
stmt = (
select(users.c.name, orders.c.product)
@@ -69,7 +69,7 @@ with engine.begin() as conn:
```
-## DDL とリフレクション
+## DDL とリフレクション {#sqlalchemy-ddl-reflection}
提供されている DDL ヘルパーと型/エンジンの構成要素を使用して、データベースおよびテーブルを作成できます。テーブルのリフレクション(カラム型やエンジンを含む)にも対応しています。
@@ -104,16 +104,16 @@ with engine.begin() as conn:
反映された列には、サーバー上に存在する場合、`clickhousedb_default_type`、`clickhousedb_codec_expression`、`clickhousedb_ttl_expression` などのダイアレクト固有の属性が含まれます。
-## INSERT(Core と基本的な ORM)
+## INSERT(Core と基本的な ORM) {#sqlalchemy-inserts}
INSERT は、SQLAlchemy Core 経由だけでなく、利便性のためにシンプルな ORM モデルを使っても実行できます。
```python
-# コア挿入
+# コア挿入 {#core-insert}
with engine.begin() as conn:
conn.execute(table.insert().values(id=1, user="joe"))
-# 基本的なORM挿入
+# 基本的なORM挿入 {#basic-orm-insert}
from sqlalchemy.orm import declarative_base, Session
Base = declarative_base(metadata=MetaData(schema="example_db"))
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/rust.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/rust.md
index feb13b2d5ad..59e3fcd439c 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/rust.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/language-clients/rust.md
@@ -8,7 +8,7 @@ title: 'ClickHouse Rust クライアント'
doc_type: 'reference'
---
-# ClickHouse Rust クライアント
+# ClickHouse Rust クライアント {#clickhouse-rust-client}
[Paul Loyd](https://github.com/loyd) によって当初開発された、ClickHouse に接続するための公式の Rust クライアントです。クライアントのソースコードは [GitHub リポジトリ](https://github.com/ClickHouse/clickhouse-rs) で公開されています。
@@ -23,7 +23,7 @@ doc_type: 'reference'
* データの SELECT/INSERT、DDL の実行、およびクライアント側のバッチ処理用 API を提供します。
* ユニットテスト用の便利なモック機能を提供します。
-## インストール
+## インストール {#installation}
このクレートを使用するには、`Cargo.toml` に以下を追加してください:
@@ -73,7 +73,7 @@ examples や以下のドキュメントに不明な点や不足している点
[ch2rs](https://github.com/ClickHouse/ch2rs) クレートは、ClickHouse から行の型を生成するのに役立ちます。
:::
-### クライアントインスタンスの作成
+### クライアントインスタンスの作成 {#creating-a-client-instance}
:::tip
作成済みのクライアントを再利用するか、クローンして、基盤となる hyper のコネクションプールを共有するようにしてください。
@@ -91,7 +91,7 @@ let client = Client::default()
```
-### HTTPS または ClickHouse Cloud への接続
+### HTTPS または ClickHouse Cloud への接続 {#https-or-clickhouse-cloud-connection}
HTTPS 接続は、`rustls-tls` または `native-tls` のいずれかの Cargo 機能で動作します。
@@ -117,7 +117,7 @@ let client = Client::default()
* クライアントリポジトリにある [ClickHouse Cloud を利用した HTTPS のサンプル](https://github.com/ClickHouse/clickhouse-rs/blob/main/examples/clickhouse_cloud.rs)。これはオンプレミス環境での HTTPS 接続にも利用できます。
-### 行を選択する
+### 行を選択する {#selecting-rows}
```rust
use serde::Deserialize;
@@ -153,7 +153,7 @@ while let Some(row) = cursor.next().await? { .. }
:::
-### 行を挿入する
+### 行を挿入する {#inserting-rows}
```rust
use serde::Serialize;
@@ -176,7 +176,7 @@ insert.end().await?;
* ClickHouse は、すべての行が同じパーティションに収まり、かつ行数が [`max_insert_block_size`](https://clickhouse.tech/docs/operations/settings/settings/#settings-max_insert_block_size) 未満である場合にのみ、バッチをアトミックに挿入します。
-### 非同期挿入(サーバー側バッチ処理)
+### 非同期挿入(サーバー側バッチ処理) {#async-insert-server-side-batching}
受信データをクライアント側でバッチ処理しないようにするには、[ClickHouse asynchronous inserts](/optimize/asynchronous-inserts) を利用できます。これは、`insert` メソッドに `async_insert` オプションを指定する(あるいは `Client` インスタンス自体に指定して、すべての `insert` 呼び出しに適用する)だけで実現できます。
@@ -192,7 +192,7 @@ let client = Client::default()
* クライアントリポジトリの [非同期インサートの例](https://github.com/ClickHouse/clickhouse-rs/blob/main/examples/async_insert.rs)。
-### Inserter 機能(クライアント側バッチ処理)
+### Inserter 機能(クライアント側バッチ処理) {#inserter-feature-client-side-batching}
`inserter` Cargo フィーチャが必要です。
@@ -234,7 +234,7 @@ inserter.end().await?;
:::
-### DDL の実行
+### DDL の実行 {#executing-ddls}
シングルノードデプロイメント環境では、DDL は次のように実行するだけで十分です。
@@ -253,7 +253,7 @@ client
```
-### ClickHouse の設定
+### ClickHouse の設定 {#clickhouse-settings}
`with_option` メソッドを使用して、さまざまな [ClickHouse の設定](/operations/settings/settings) を適用できます。例:
@@ -270,7 +270,7 @@ let numbers = client
`query` だけでなく、`insert` および `inserter` メソッドでも同様に動作します。さらに、同じメソッドを `Client` インスタンスに対して呼び出すことで、すべてのクエリに適用されるグローバル設定を行うことができます。
-### クエリ ID
+### クエリ ID {#query-id}
`.with_option` を使用すると、ClickHouse のクエリログでクエリを識別するための `query_id` オプションを設定できます。
@@ -291,7 +291,7 @@ let numbers = client
参考: クライアントリポジトリ内の [query_id のサンプル](https://github.com/ClickHouse/clickhouse-rs/blob/main/examples/query_id.rs) も参照してください。
-### セッション ID
+### セッション ID {#session-id}
`query_id` と同様に、同じセッションでステートメントを実行するために `session_id` を設定できます。`session_id` はクライアントレベルでグローバルに設定することも、`query`、`insert`、`inserter` の各呼び出しごとに個別に設定することもできます。
@@ -308,7 +308,7 @@ let client = Client::default()
関連項目: クライアントリポジトリ内の [session_id の例](https://github.com/ClickHouse/clickhouse-rs/blob/main/examples/session_id.rs) を参照してください。
-### カスタム HTTP ヘッダー
+### カスタム HTTP ヘッダー {#custom-http-headers}
プロキシ認証を使用している場合やカスタムヘッダーを渡す必要がある場合は、次のように指定できます。
@@ -321,7 +321,7 @@ let client = Client::default()
参考: クライアントリポジトリ内の [カスタム HTTP ヘッダーの例](https://github.com/ClickHouse/clickhouse-rs/blob/main/examples/custom_http_headers.rs) も参照してください。
-### カスタム HTTP クライアント
+### カスタム HTTP クライアント {#custom-http-client}
これは、内部の HTTP 接続プールの設定を調整する際に役立ちます。
@@ -350,7 +350,7 @@ let client = Client::with_http_client(hyper_client).with_url("http://localhost:8
あわせて、クライアントリポジトリ内の [custom HTTP client example](https://github.com/ClickHouse/clickhouse-rs/blob/main/examples/custom_http_client.rs) も参照してください。
-## データ型
+## データ型 {#data-types}
:::info
追加のサンプルも参照してください:
@@ -544,7 +544,7 @@ struct MyRow {
## トラブルシューティング {#troubleshooting}
-### CANNOT_READ_ALL_DATA
+### CANNOT_READ_ALL_DATA {#cannot_read_all_data}
`CANNOT_READ_ALL_DATA` エラーの最も一般的な原因は、アプリケーション側の行定義が ClickHouse の定義と一致していないことです。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/misc/index.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/misc/index.md
index 00e86386d5b..62aa9f8b30b 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/misc/index.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/misc/index.md
@@ -6,7 +6,7 @@ description: 'ツールセクションのランディングページ'
doc_type: 'landing-page'
---
-# ツール
+# ツール {#tools}
| ページ |
|-------------------|
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/datagrip.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/datagrip.md
index e26e2636562..90d90530710 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/datagrip.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/datagrip.md
@@ -12,7 +12,7 @@ keywords: ['DataGrip', 'データベース IDE', 'JetBrains', 'SQL クライア
---
import Image from '@theme/IdealImage';
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import datagrip_1 from '@site/static/images/integrations/sql-clients/datagrip-1.png';
import datagrip_5 from '@site/static/images/integrations/sql-clients/datagrip-5.png';
import datagrip_6 from '@site/static/images/integrations/sql-clients/datagrip-6.png';
@@ -20,7 +20,7 @@ import datagrip_7 from '@site/static/images/integrations/sql-clients/datagrip-7.
import CommunityMaintainedBadge from '@theme/badges/CommunityMaintained';
-# DataGrip から ClickHouse へ接続する
+# DataGrip から ClickHouse へ接続する {#connecting-datagrip-to-clickhouse}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbeaver.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbeaver.md
index 488baa23dbc..914dcb17c41 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbeaver.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbeaver.md
@@ -22,7 +22,7 @@ import dbeaver_query_log_select from '@site/static/images/integrations/sql-clien
import ClickHouseSupportedBadge from '@theme/badges/ClickHouseSupported';
-# DBeaver を ClickHouse に接続する
+# DBeaver を ClickHouse に接続する {#connect-dbeaver-to-clickhouse}
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbvisualizer.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbvisualizer.md
index fba232628b0..3d362fdb4f2 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbvisualizer.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/dbvisualizer.md
@@ -10,38 +10,29 @@ integration:
- category: 'sql_client'
---
-import ConnectionDetails from '@site/docs/_snippets/_gather_your_details_http.mdx';
+import ConnectionDetails from '@site/i18n/jp/docusaurus-plugin-content-docs/current/_snippets/_gather_your_details_http.mdx';
import Image from '@theme/IdealImage';
import dbvisualizer_driver_manager from '@site/static/images/integrations/sql-clients/dbvisualizer-driver-manager.png';
import CommunityMaintainedBadge from '@theme/badges/CommunityMaintained';
-
-# DbVisualizer を ClickHouse に接続する
+# DbVisualizer を ClickHouse に接続する {#connecting-dbvisualizer-to-clickhouse}
-
-
## DbVisualizer を起動またはダウンロードする {#start-or-download-dbvisualizer}
DbVisualizer は https://www.dbvis.com/download/ から入手できます。
-
-
## 1. 接続情報を確認する {#1-gather-your-connection-details}
-
-
## 2. 組み込み JDBC ドライバー管理 {#2-built-in-jdbc-driver-management}
DbVisualizer には、ClickHouse 用の最新の JDBC ドライバーが内蔵されています。最新リリースだけでなく、過去バージョンも含めた JDBC ドライバー管理機能が組み込まれています。
-
-
## 3. ClickHouse に接続する {#3-connect-to-clickhouse}
DbVisualizer でデータベースに接続するには、まず Database Connection を作成して設定する必要があります。
@@ -65,8 +56,6 @@ DbVisualizer でデータベースに接続するには、まず Database Connec
:::tip
データベースへの接続に問題がある場合のヒントについては、[接続の問題を解決する](https://www.dbvis.com/docs/ug/troubleshooting/fixing-connection-issues/)を参照してください。
-
-
## 詳細情報 {#learn-more}
DbVisualizer の詳細については、[DbVisualizer ドキュメント](https://www.dbvis.com/docs/ug/)を参照してください。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/index.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/index.md
index 06c43ad109f..c5d7d5dd6fb 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/index.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/index.md
@@ -6,7 +6,7 @@ title: 'SQL クライアント連携'
doc_type: 'landing-page'
---
-# SQL クライアント連携
+# SQL クライアント連携 {#sql-client-integrations}
このセクションでは、ClickHouse をさまざまなデータベース管理・分析・可視化ツールと連携させる方法について説明します。
diff --git a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/jupysql.md b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/jupysql.md
index c4020c516d2..e4ae97fa7d6 100644
--- a/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/jupysql.md
+++ b/i18n/jp/docusaurus-plugin-content-docs/current/integrations/sql-clients/jupysql.md
@@ -15,8 +15,7 @@ import jupysql_plot_1 from '@site/static/images/integrations/sql-clients/jupysql
import jupysql_plot_2 from '@site/static/images/integrations/sql-clients/jupysql-plot-2.png';
import CommunityMaintainedBadge from '@theme/badges/CommunityMaintained';
-
-# ClickHouse で JupySQL を使用する
+# ClickHouse で JupySQL を使用する {#using-jupysql-with-clickhouse}
@@ -113,7 +112,6 @@ ORDER BY pickup_datetime;