Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
52 changes: 26 additions & 26 deletions docs/ja/agents.md
Original file line number Diff line number Diff line change
Expand Up @@ -4,16 +4,16 @@ search:
---
# エージェント

エージェントはアプリの中核となる構成要素です。エージェントは、instructions とツールで構成された大規模言語モデル(LLMです。
エージェントはアプリの中核となる基本構成要素です。エージェントは、 instructions と tools で構成された大規模言語モデル LLM です。

## 基本構成
## 基本設定

エージェントで最も一般的に設定するプロパティは次のとおりです。

- `name`: エージェントを識別する必須の文字列です
- `instructions`: 開発者メッセージ(developer message)または システムプロンプト とも呼ばれます。
- `model`: どの LLM を使用するか、および任意の `model_settings` で temperature、top_p などのモデル調整パラメーターを設定します
- `tools`: エージェントがタスクを遂行するために使用できるツールです
- `name`: エージェントを識別するための必須の文字列です
- `instructions`: developer message(開発者メッセージ)または system prompt とも呼ばれます。
- `model`: 使用する LLM と、temperature、top_p などのモデルチューニング用の任意の `model_settings`
- `tools`: エージェントがタスクを達成するために使用できるツールです

```python
from agents import Agent, ModelSettings, function_tool
Expand All @@ -33,7 +33,7 @@ agent = Agent(

## コンテキスト

エージェントはその `context` 型についてジェネリックです。コンテキストは依存性注入のためのツールで、あなたが作成して `Runner.run()` に渡すオブジェクトです。これはすべてのエージェント、ツール、ハンドオフなどに渡され、エージェントの実行に必要な依存関係や状態をまとめて保持する役割を果たします。任意の Python オブジェクトをコンテキストとして渡せます
エージェントは `context` 型に対して汎用的です。コンテキストは依存性注入のためのツールで、あなたが作成して `Runner.run()` に渡すオブジェクトです。これはすべてのエージェント、ツール、ハンドオフなどに渡され、エージェントの実行における依存関係や状態をまとめて保持します。コンテキストには任意の Python オブジェクトを指定できます

```python
@dataclass
Expand All @@ -52,7 +52,7 @@ agent = Agent[UserContext](

## 出力タイプ

デフォルトでは、エージェントはプレーンテキスト(つまり `str`)を出力します。特定の型の出力を生成したい場合は、`output_type` パラメーターを使用できます。一般的には [Pydantic](https://docs.pydantic.dev/) のオブジェクトを使いますが、Pydantic の [TypeAdapter](https://docs.pydantic.dev/latest/api/type_adapter/) でラップできる任意の型(dataclasses、list、TypedDict など)をサポートします。
既定では、エージェントはプレーンテキスト(つまり `str`)を出力します。特定の型の出力をエージェントに生成させたい場合は、`output_type` パラメーターを使用できます。一般的には [Pydantic](https://docs.pydantic.dev/) オブジェクトを使用しますが、Pydantic の [TypeAdapter](https://docs.pydantic.dev/latest/api/type_adapter/) でラップできるあらゆる型(dataclasses、lists、TypedDict など)をサポートします。

```python
from pydantic import BaseModel
Expand All @@ -73,11 +73,11 @@ agent = Agent(

!!! note

`output_type` を渡すと、モデルは通常のプレーンテキスト応答ではなく [structured outputs](https://platform.openai.com/docs/guides/structured-outputs) を使用するように指示されます
`output_type` を渡すと、モデルは通常のプレーンテキスト応答ではなく [structured outputs](https://platform.openai.com/docs/guides/structured-outputs) を使用します

## ハンドオフ

ハンドオフは、エージェントが委任できるサブエージェントです。ハンドオフのリストを渡すと、関連があればエージェントはそれらに委任できます。これは、単一のタスクに特化したモジュール式のエージェントをオーケストレーションする強力なパターンです。詳しくは [ガードレール](handoffs.md) のドキュメントを参照してください。
ハンドオフは、エージェントが委譲できるサブエージェントです。ハンドオフのリストを指定すると、必要に応じてエージェントがそれらに委譲できます。これは、単一のタスクに特化して優れた能力を発揮するモジュール型のエージェントをオーケストレーションできる強力なパターンです。詳細は [ハンドオフ](handoffs.md) のドキュメントを参照してください。

```python
from agents import Agent
Expand All @@ -98,7 +98,7 @@ triage_agent = Agent(

## 動的 instructions

多くの場合、エージェントの作成時に instructions を指定しますが、関数を介して動的に指定することもできます。関数はエージェントとコンテキストを受け取り、プロンプトを返す必要があります。通常の関数と `async` 関数のどちらも使用できます。
多くの場合、エージェント作成時に instructions を指定できますが、関数を介して動的に instructions を提供することも可能です。関数はエージェントとコンテキストを受け取り、プロンプトを返す必要があります。通常の関数と `async` 関数のどちらも使用できます。

```python
def dynamic_instructions(
Expand All @@ -115,15 +115,15 @@ agent = Agent[UserContext](

## ライフサイクルイベント(フック)

エージェントのライフサイクルを観測したい場合があります。たとえば、イベントをログに記録したり、特定のイベント発生時にデータを事前取得したりする場合です。`hooks` プロパティでエージェントのライフサイクルにフックできます。[`AgentHooks`][agents.lifecycle.AgentHooks] クラスをサブクラス化し、必要なメソッドをオーバーライドしてください。
ときには、エージェントのライフサイクルを観測したいことがあります。たとえば、イベントをログに記録したり、特定のイベント発生時にデータを事前取得したりできます。`hooks` プロパティでエージェントのライフサイクルにフックできます。[`AgentHooks`][agents.lifecycle.AgentHooks] クラスをサブクラス化し、必要なメソッドをオーバーライドしてください。

## ガードレール

ガードレールにより、エージェントの実行と並行して ユーザー入力 に対するチェック/検証を行い、さらにエージェントの出力が生成された後にも検証を実行できます。たとえば、ユーザーの入力とエージェントの出力の関連性を確認できます。詳しくは [ガードレール](guardrails.md) のドキュメントを参照してください。
ガードレールにより、エージェントの実行と並行してユーザー入力に対するチェック/バリデーションを行い、さらにエージェントの出力が生成された後にもチェックを実施できます。たとえば、ユーザーの入力やエージェントの出力の関連性をスクリーニングできます。詳細は [ガードレール](guardrails.md) のドキュメントを参照してください。

## エージェントのクローン/コピー

エージェントの `clone()` メソッドを使うと、エージェントを複製でき、任意のプロパティを変更することもできます
エージェントの `clone()` メソッドを使用すると、エージェントを複製し、任意のプロパティを変更できます

```python
pirate_agent = Agent(
Expand All @@ -140,12 +140,12 @@ robot_agent = pirate_agent.clone(

## ツール使用の強制

ツールのリストを渡しても、LLM が必ずツールを使用するとは限りません。[`ModelSettings.tool_choice`][agents.model_settings.ModelSettings.tool_choice] を設定することで、ツール使用を強制できます。有効な値は次のとおりです。
ツールのリストを指定しても、必ずしも LLM がツールを使用するとは限りません。[`ModelSettings.tool_choice`][agents.model_settings.ModelSettings.tool_choice] を設定してツール使用を強制できます。有効な値は次のとおりです。

1. `auto`LLM がツールを使うかどうかを判断します
2. `required`LLM にツールの使用を要求します(ただし、どのツールを使うかは賢く判断します)。
3. `none`。LLM にツールを使用し _ない_ ことを要求します
4. 特定の文字列(例: `my_tool`)を設定し、その特定のツールを使用することを LLM に要求します
1. `auto`: ツールを使用するかどうかを LLM に委ねます
2. `required`: LLM にツールの使用を必須にします(どのツールを使うかは賢く判断します)。
3. `none`: LLM にツールを使用しないことを要求します
4. 具体的な文字列(例: `my_tool`)を設定し、その特定のツールを LLM に使用させます

```python
from agents import Agent, Runner, function_tool, ModelSettings
Expand All @@ -163,11 +163,11 @@ agent = Agent(
)
```

## ツール使用の挙動
## ツール使用の動作

`Agent` 構成の `tool_use_behavior` パラメーターは、ツール出力の扱い方を制御します
- `"run_llm_again"`: デフォルト。ツールを実行し、LLM が結果を処理して最終応答を生成します
- `"stop_on_first_tool"`: 最初のツール呼び出しの出力を最終応答として使用し、LLM によるさらなる処理は行いません
`Agent` 構成の `tool_use_behavior` パラメーターは、ツールの出力の扱い方を制御します
- `"run_llm_again"`: 既定。ツールを実行し、その結果を LLM が処理して最終応答を生成します
- `"stop_on_first_tool"`: 最初のツール呼び出しの出力を、追加の LLM 処理なしでそのまま最終応答として使用します

```python
from agents import Agent, Runner, function_tool, ModelSettings
Expand All @@ -185,7 +185,7 @@ agent = Agent(
)
```

- `StopAtTools(stop_at_tool_names=[...])`: 指定したいずれかのツールが呼ばれたら停止し、その出力を最終応答として使用します。
- `StopAtTools(stop_at_tool_names=[...])`: 指定したいずれかのツールが呼び出されたら停止し、その出力を最終応答として使用します。
```python
from agents import Agent, Runner, function_tool
from agents.agent import StopAtTools
Expand All @@ -207,7 +207,7 @@ agent = Agent(
tool_use_behavior=StopAtTools(stop_at_tool_names=["get_weather"])
)
```
- `ToolsToFinalOutputFunction`: ツール結果を処理し、停止するか LLM を続行するかを判断するカスタム関数です。
- `ToolsToFinalOutputFunction`: ツール結果を処理し、停止するか LLM を続行するかを判断するカスタム関数です。

```python
from agents import Agent, Runner, function_tool, FunctionToolResult, RunContextWrapper
Expand Down Expand Up @@ -245,4 +245,4 @@ agent = Agent(

!!! note

無限ループを防ぐため、フレームワークはツール呼び出しの後に `tool_choice` を自動的に "auto" にリセットします。この挙動は [`agent.reset_tool_choice`][agents.agent.Agent.reset_tool_choice] で設定できます。無限ループが起きるのは、ツール結果が LLM に送られ、`tool_choice` によって LLM がさらに別のツール呼び出しを生成し続けてしまうためです
無限ループを防ぐため、フレームワークはツール呼び出し後に `tool_choice` を自動的に "auto" にリセットします。この動作は [`agent.reset_tool_choice`][agents.agent.Agent.reset_tool_choice] で設定可能です。無限ループは、ツール結果が LLM に送られ、`tool_choice` により LLM が再びツール呼び出しを生成し続けてしまうことに起因します
26 changes: 13 additions & 13 deletions docs/ja/config.md
Original file line number Diff line number Diff line change
Expand Up @@ -6,15 +6,15 @@ search:

## API キーとクライアント

デフォルトでは、SDK はインポートされるとすぐに LLM リクエストおよび トレーシング のために `OPENAI_API_KEY` 環境変数を探します。アプリ起動前にその環境変数を設定できない場合は、[set_default_openai_key()][agents.set_default_openai_key] 関数でキーを設定できます
デフォルトでは、SDK はインポートされるとすぐにLLM リクエストと トレーシング のために `OPENAI_API_KEY` 環境変数を探します。アプリの起動前にその環境変数を設定できない場合は、[set_default_openai_key()][agents.set_default_openai_key] 関数を使用してキーを設定できます

```python
from agents import set_default_openai_key

set_default_openai_key("sk-...")
```

また、使用する OpenAI クライアントを設定することもできます。デフォルトでは、SDK は環境変数または上で設定したデフォルトキーから API キーを用いて `AsyncOpenAI` インスタンスを作成します。これを変更するには、[set_default_openai_client()][agents.set_default_openai_client] 関数を使用します。
また、使用する OpenAI クライアントを構成することもできます。デフォルトでは、SDK は環境変数または上記で設定したデフォルトキーから API キーを使用して、`AsyncOpenAI` インスタンスを作成します。これを変更するには、[set_default_openai_client()][agents.set_default_openai_client] 関数を使用します。

```python
from openai import AsyncOpenAI
Expand All @@ -24,7 +24,7 @@ custom_client = AsyncOpenAI(base_url="...", api_key="...")
set_default_openai_client(custom_client)
```

さらに、使用する OpenAI API をカスタマイズすることもできます。デフォルトでは OpenAI Responses API を使用します。これを上書きして Chat Completions API を使うには、[set_default_openai_api()][agents.set_default_openai_api] 関数を使用します
最後に、使用する OpenAI API をカスタマイズすることもできます。デフォルトではOpenAI Responses API を使用します。[set_default_openai_api()][agents.set_default_openai_api] 関数を使用して上書きし、Chat Completions API を使うようにできます

```python
from agents import set_default_openai_api
Expand All @@ -34,35 +34,35 @@ set_default_openai_api("chat_completions")

## トレーシング

トレーシング はデフォルトで有効です。デフォルトでは、上記の OpenAI API キー(すなわち、環境変数または設定したデフォルトキー)を使用します。トレーシング に使用する API キーを個別に設定するには、[`set_tracing_export_api_key`][agents.set_tracing_export_api_key] 関数を使用します。
トレーシング はデフォルトで有効です。デフォルトでは、上記の OpenAI API キー(つまり、環境変数または設定したデフォルトキー)を使用します。トレーシング に使用する API キーを個別に設定するには、[`set_tracing_export_api_key`][agents.set_tracing_export_api_key] 関数を使用します。

```python
from agents import set_tracing_export_api_key

set_tracing_export_api_key("sk-...")
```

また、[`set_tracing_disabled()`][agents.set_tracing_disabled] 関数で トレーシング を完全に無効化できます
[`set_tracing_disabled()`][agents.set_tracing_disabled] 関数を使用して、トレーシング を完全に無効化することもできます

```python
from agents import set_tracing_disabled

set_tracing_disabled(True)
```

## デバッグログ
## デバッグロギング

SDK には、ハンドラーが一切設定されていない 2 つの Python ロガーがあります。デフォルトでは、これは警告とエラーが `stdout` に送られ、それ以外のログは抑制されることを意味します
SDK にはハンドラーが設定されていない 2 つの Python ロガーがあります。デフォルトでは、これは警告とエラーが `stdout` に送られ、その他のログは抑制されることを意味します

詳細なログを有効にするには、[`enable_verbose_stdout_logging()`][agents.enable_verbose_stdout_logging] 関数を使用します。
詳細なロギングを有効にするには、[`enable_verbose_stdout_logging()`][agents.enable_verbose_stdout_logging] 関数を使用します。

```python
from agents import enable_verbose_stdout_logging

enable_verbose_stdout_logging()
```

また、ハンドラー、フィルター、フォーマッターなどを追加してログをカスタマイズできます。詳細は [Python logging guide](https://docs.python.org/3/howto/logging.html) を参照してください
また、ハンドラー、フィルター、フォーマッターなどを追加してログをカスタマイズできます。詳しくは [Python logging ガイド](https://docs.python.org/3/howto/logging.html)をご覧ください

```python
import logging
Expand All @@ -81,17 +81,17 @@ logger.setLevel(logging.WARNING)
logger.addHandler(logging.StreamHandler())
```

### ログ内の機密データ
### ログ内の機微情報

一部のログには機密データ(例: ユーザー データ)が含まれる場合があります。これらのデータが記録されないようにするには、次の環境変数を設定してください。
特定のログには機微なデータ(例: ユーザー データ)が含まれる場合があります。これらのデータがログに出力されないようにするには、次の環境変数を設定してください。

LLM の入力と出力のログ記録を無効にするには:
LLM の入力と出力のロギングを無効化するには:

```bash
export OPENAI_AGENTS_DONT_LOG_MODEL_DATA=1
```

ツールの入力と出力のログ記録を無効にするには:
ツールの入力と出力のロギングを無効化するには:

```bash
export OPENAI_AGENTS_DONT_LOG_TOOL_DATA=1
Expand Down
Loading