Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
33 changes: 15 additions & 18 deletions docs/src/content/docs/ja/extensions/ai-sdk.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -7,30 +7,31 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
import aiSdkSetupExample from '../../../../../../examples/docs/extensions/ai-sdk-setup.ts?raw';

<Aside type="caution">
このアダプターはまだベータ版です。特に小規模なモデルプロバイダーでは問題が発生する場合があります。問題があれば
このアダプターはまだ beta
段階です。とくに小規模なモデルプロバイダーでは問題が発生する場合があります。問題があれば
[GitHub issues](https://github.com/openai/openai-agents-js/issues)
から報告してください。迅速に修正します
までご報告ください。迅速に対応します
</Aside>

Agents SDK は標準で Responses API または Chat Completions API を通じて OpenAI モデルと連携します。別のモデルを使用したい場合は、[Vercel's AI SDK](https://sdk.vercel.ai/) がサポートする多様なモデルを、このアダプター経由で Agents SDK に取り込めます
標準で Agents SDK Responses API または Chat Completions API を通じて OpenAI モデルと連携します。ただし、別のモデルを使用したい場合は、[VercelAI SDK](https://sdk.vercel.ai/) が幅広い対応モデルを提供しており、このアダプターを介して Agents SDK に取り込むことができます

## セットアップ

<Steps>

1. 拡張機能パッケージをインストールして AI SDK アダプターを導入します:
1. extensions パッケージをインストールして AI SDK アダプターを導入します:

```bash
npm install @openai/agents-extensions
```

2. [Vercel's AI SDK](https://sdk.vercel.ai/docs/models/overview) から使用したいモデルパッケージを選び、インストールします:
2. [VercelAI SDK](https://ai-sdk.dev/docs/foundations/providers-and-models) から目的のモデルパッケージを選び、インストールします:

```bash
npm install @ai-sdk/openai@"^1.0.0"
```

3. アダプターとモデルをインポートし、エージェントに接続します:
3. アダプターとモデルをインポートして、エージェントに接続します:

```typescript
import { openai } from '@ai-sdk/openai';
Expand All @@ -46,22 +47,18 @@ Agents SDK は標準で Responses API または Chat Completions API を通じ
</Steps>

<Aside type="caution">
Vercel's AI SDK は最近 v2 に移行しましたが、openai agent extensions はまだ v2
と互換性がありません。 したがって、Vercel's AI SDK v1
をインストールする必要があります
VercelAI SDK は最近 v2 に移行しましたが、 openai agent extensions はまだ
v2 に対応していません。 そのため VercelAI SDK v1
バージョンをインストールする必要があります
</Aside>

## 例

<Code
lang="typescript"
code={aiSdkSetupExample}
title="AI SDK のセットアップ"
/>
<Code lang="typescript" code={aiSdkSetupExample} title="AI SDK セットアップ" />

## プロバイダーのメタデータの受け渡し
## プロバイダー メタデータの受け渡し

メッセージにプロバイダー固有のオプションを含める必要がある場合は、`providerMetadata` を通して渡します。値は基盤の AI SDK モデルにそのまま転送されます。たとえば、Agents SDK で次の `providerData`
メッセージにプロバイダー固有のオプションを送る必要がある場合は、`providerMetadata` を通して渡します。値は基盤の AI SDK モデルにそのまま転送されます。たとえば、Agents SDK で次の `providerData`

```ts
providerData: {
Expand All @@ -73,7 +70,7 @@ providerData: {
}
```

次のようになります
は、AI SDK 連携を使用すると

```ts
providerMetadata: {
Expand All @@ -85,4 +82,4 @@ providerMetadata: {
}
```

AI SDK 連携を使用する場合
のようになります。
59 changes: 30 additions & 29 deletions docs/src/content/docs/ja/extensions/twilio.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -7,37 +7,38 @@ import { Aside, Steps, Code } from '@astrojs/starlight/components';
import twilioBasicExample from '../../../../../../examples/docs/extensions/twilio-basic.ts?raw';
import twilioServerExample from '../../../../../../examples/realtime-twilio/index.ts?raw';

Twilio は、電話の通話からの 元 の音声を WebSocket サーバーに送信する [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しています。これは、あなたの [音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続するために使用できます。`websocket` モードのデフォルトの Realtime Session トランスポートを使って、Twilio から届くイベントを Realtime Session に接続できます。ただし、Web ベースの会話よりも通話は自然とレイテンシが大きくなるため、適切な音声フォーマットを設定し、割り込みタイミングを調整する必要があります
Twilio は [Media Streams API](https://www.twilio.com/docs/voice/media-streams) を提供しており、電話の通話からの 元 の音声を WebSocket サーバーに送信します。このセットアップは、[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を Twilio に接続するために使用できます。`websocket` モードの既定の Realtime Session トランスポートを使用して、Twilio から来るイベントを Realtime Session に接続できます。ただし、その場合は適切な音声フォーマットを設定し、Web ベースの会話よりも通話では自然とレイテンシが大きくなるため、割り込みのタイミングを自分で調整する必要があります

セットアップ体験を向上させるため、Twilio への接続、割り込み処理、音声の転送などを代わりに行う専用のトランスポートレイヤーを用意しました
セットアップを改善するために、Twilio への接続を処理する専用のトランスポート層を作成しました。これは、割り込み処理や音声の転送も含めて対応します

<Aside type="caution">
このアダプターはまだベータ版です。エッジケースの問題やバグに遭遇する可能性があります。
問題は [GitHub issues](https://github.com/openai/openai-agents-js/issues)
で報告してください。迅速に対応します。
このアダプターはまだベータ版です。レアケースの問題やバグに遭遇する可能性があります。
何か問題があれば [GitHub
issues](https://github.com/openai/openai-agents-js/issues)
から報告してください。迅速に修正します。
</Aside>

## セットアップ

<Steps>

1. ** Twilio アカウントと Twilio の電話番号を用意してください。**
1. **Twilio アカウントと Twilio の電話番号を用意してください。**

2. ** Twilio からのイベントを受け取れる WebSocket サーバーを設定してください。**
2. **Twilio からのイベントを受け取れる WebSocket サーバーをセットアップします。**

ローカルで開発している場合、これは [`ngrok`](https://ngrok.io/) や
ローカルで開発している場合、this will require you to configure a local tunnel like
this will require you to configure a local tunnel like [`ngrok`](https://ngrok.io/) または
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/)
のようなローカルトンネルを構成する必要があり、これはローカルトンネル([`ngrok`](https://ngrok.io/) や
[Cloudflare Tunnel](https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel/) など)を構成する必要があることを意味します。これによりローカルの サーバー を Twilio からアクセス可能にします。`TwilioRealtimeTransportLayer`
を使用して Twilio に接続できます。
のようなローカルトンネルを設定して、ローカルのサーバーを Twilio からアクセスできるようにする必要があります。Twilio への接続には `TwilioRealtimeTransportLayer`
を使用できます。

3. ** 拡張機能パッケージをインストールして Twilio アダプターを導入します:**
3. **extensions パッケージをインストールして Twilio アダプターを導入します:**

```bash
npm install @openai/agents-extensions
```

4. ** アダプターとモデルをインポートして `RealtimeSession` に接続します:**
4. **アダプターとモデルをインポートして `RealtimeSession` に接続します:**

<Code
lang="typescript"
Expand All @@ -47,41 +48,41 @@ Twilio は、電話の通話からの 元 の音声を WebSocket サーバーに
)}
/>

5. ** `RealtimeSession` を Twilio に接続します:**
5. **`RealtimeSession` を Twilio に接続します:**

```typescript
session.connect({ apiKey: 'your-openai-api-key' });
```

</Steps>

`RealtimeSession` で期待されるあらゆるイベントや挙動は、ツール呼び出し、ガードレールなどを含め、期待どおりに動作します。`RealtimeSession` を音声エージェントで使用する方法の詳細は、[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。
ツール呼び出し、ガードレールなど、`RealtimeSession` から期待されるあらゆるイベントや挙動はそのまま動作します。`RealtimeSession` を音声エージェントと併用する方法の詳細は、[音声エージェントの概要](/openai-agents-js/ja/guides/voice-agents) を参照してください。

## ヒントと考慮事項

1. ** スピードが命です。**
1. **スピードが命です。**

Twilio から必要なイベントと音声をすべて受け取るために、WebSocket 接続の参照が取れたら直ちに
`TwilioRealtimeTransportLayer` インスタンスを作成し、その直後に `session.connect()` を呼び出してください。
必要なすべてのイベントと音声を Twilio から受け取るため、WebSocket 接続への参照を得たらすぐに
`TwilioRealtimeTransportLayer` インスタンスを作成し、直後に `session.connect()` を呼び出してください。

2. ** 元 の Twilio イベントにアクセスする。**
2. **Twilio の 元 のイベントにアクセスします。**

Twilio から送信される 元 のイベントにアクセスしたい場合は、`RealtimeSession` インスタンスで
`transport_event` イベントをリッスンできます。Twilio からのすべてのイベントには、型が
`twilio_message`、元のイベントデータを含む `message` プロパティがあります
Twilio から送信されている 元 のイベントにアクセスしたい場合は、`RealtimeSession` インスタンスの
`transport_event` イベントをリッスンできます。Twilio からのすべてのイベントはタイプが
`twilio_message`、元のイベントデータを含む `message` プロパティを持ちます

3. ** デバッグログを確認する。**
3. **デバッグログを確認します。**

状況を詳しく知りたい問題に遭遇することがあります。`DEBUG=openai-agents*` 環境変数を使うと、
Agents SDK からのすべてのデバッグログが表示されます。あるいは、`DEBUG=openai-agents:extensions:twilio*`
を使って Twilio アダプターのデバッグログだけを有効にできます。
何が起きているかをより詳しく知りたい問題に遭遇することがあります。`DEBUG=openai-agents*` 環境変数を使うと、
Agents SDK のすべてのデバッグログが表示されます。あるいは、`DEBUG=openai-agents:extensions:twilio*` を使って
Twilio アダプターのデバッグログだけを有効にできます。

## 完全なサンプルサーバー
## 完全なサーバー例

以下は、Twilio からのリクエストを受け取り、それを `RealtimeSession` に転送するエンドツーエンドの WebSocket サーバーの完全な例です
以下は、Twilio からのリクエストを受け取り、`RealtimeSession` に転送する、エンドツーエンドの完全な WebSocket サーバーの例のサンプルです

<Code
lang="typescript"
code={twilioServerExample}
title="Fastify を使用したサーバーのサンプル"
title="Fastify を使用したサーバーの例"
/>
Loading