-
Notifications
You must be signed in to change notification settings - Fork 60
Description
Issue詳細情報
この Issue は現在のモックに AI エージェントモックを追加する機能改善リクエストです。
AgentCore Runtime で AI エージェントを自動的に作成・デプロイし、AgentCore MCP を通じてモックから利用します。
より連続、の部分に対して現在のモックは静的に手動で作業せざるおえず、より連続、のための自動化が体験できません。
ただし、この機能はすべての問いに対して常時実装可能ではないかもしれず、より連続、が実際モックとして実現できるかどうかを判断する必要があるでしょう。このような実際の作成されるあらゆる PR/FAQ を想定した AI エージェントモックを自動構築することは難易度が高いためオプショナルの機能として実装することを提案します。
以下、AI に自動で生成させた内容のため実装に向けて Mentainer との詳細な議論が必要です。
対象箇所
改善を希望するファイル名やページ番号:
- プロンプト設定ファイル:
aws-ml-enablement-workshop/yourwork/prompt/prompt.md - エージェント設定ファイル:
aws-ml-enablement-workshop/yourwork/.amazonq/cli-agents/mock-builder.json - テンプレートディレクトリ:
aws-ml-enablement-workshop/yourwork/template/app/src/ - ワークショップガイド:
aws-ml-enablement-workshop/yourwork/README.mdの「Define」「Invent」セクション
改善内容
PR/FAQ から AI エージェント自動デプロイ + AgentCore MCP 統合機能の追加
新しいワークフロー:
PR/FAQ入力 → Q Chat エージェントビルダー →
├─ モックアプリ生成(既存)
└─ AI エージェント生成 → AgentCore Runtime デプロイ → AgentCore MCP 統合
具体的な追加機能:
-
AgentCore MCP統合
// .amazonq/cli-agents/mock-builder.json への追加 "agentcore-mcp": { "command": "agentcore-mcp-server", "args": ["--runtime-endpoint", "${AGENTCORE_RUNTIME_ENDPOINT}"], "env": { "AWS_REGION": "us-west-2", "AGENTCORE_RUNTIME_ARN": "${AGENTCORE_RUNTIME_ARN}" } }
-
AI エージェント自動生成・デプロイ機能
- PR/FAQ 解析による AI エージェント仕様生成
- Strands を使用した AI エージェントコード生成
- AgentCore Runtime への自動デプロイ
- デプロイ完了後のエージェント ARN 取得
-
モックアプリケーション内のAgentCore MCP 統合
src/services/agentCoreService.ts- AgentCore MCP 経由でエージェント呼び出しsrc/services/automationService.ts- XX→YY連続実行(実際のAIエージェント使用)src/components/automation/- リアルタイム実行状況表示UI
-
プロンプト拡張(2段階生成)
<execution_phases> **Phase 1: インフラ + AI エージェント準備** 1. CloudFormation スタック作成 2. PR/FAQ から AI エージェント仕様を生成 3. Strands で AI エージェントを実装 4. AgentCore Runtime にデプロイ 5. エージェント ARN を取得・保存 **Phase 2: アプリケーション開発(AgentCore MCP 統合)** 1. AgentCore MCP をモックアプリに統合 2. XX→YY 自動化機能を実装(実際のAIエージェント呼び出し) 3. 実行状況表示UI を実装 </execution_phases>
現在の問題
講義で使用するときの課題:
-
偽の自動化体験
- モックでは
setTimeout()による疑似的な待機処理 - 実際の AI エージェントによる処理ではないため、参加者が本物の自動化価値を体験できない
- モックでは
-
Define フェーズの問いに対する実装不足
- 「なぜ診断とマッチングは同時にできないのか」→「AIエージェントで連続自動化」というソリューションを実際に体験できない
- XX→YY 連続実行の実装例がない
-
技術スタックの現実性不足
- 現実のビジネスでは AI エージェントによる業務自動化が主流になっているが、ワークショップがそれに対応していない
- AWS AgentCore のような実際のサービスを使った体験が提供できていない
現在のコード例(問題):
// 現在:偽の処理
setTimeout(() => {
const mockPlan: LearningPlan = { /* 固定データ */ };
setPlan(mockPlan); // 実際のAI処理なし
}, 2000);
// 理想:実際のAIエージェント呼び出し
const diagnosisAgent = await agentCoreService.invokeAgent(
'diagnosis-analyzer-agent', formData
);
const planAgent = await agentCoreService.invokeAgent(
'plan-generator-agent', { diagnosis: diagnosisAgent.result }
);- ワークショップの差別化不足
- 他の類似ワークショップと差別化できる「実際のAIエージェント体験」が提供できていない
- モック品質が現実のソリューションレベルに達していない
その他情報
実装されるべき技術アーキテクチャ:
ワークショップ実行時:
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ Q Chat │ │ AgentCore │ │ モックアプリ │
│ エージェント │───▶│ Runtime │◀───│ (AgentCore │
│ ビルダー │ │ │ │ MCP 統合) │
└─────────────────┘ └─────────────────┘ └─────────────────┘
│ │ │
▼ ▼ ▼
PR/FAQ 解析 AI エージェント XX→YY 連続実行
AI エージェント デプロイ完了 実体験提供
仕様生成・実装
期待される体験フロー:
- 参加者が PR/FAQ を入力
- Q Chat が PR/FAQ を解析し、AI エージェント仕様を生成
- Strands で AI エージェントを実装し、AgentCore Runtime にデプロイ
- モックアプリ生成時に AgentCore MCP を統合
- 参加者がモックアプリで「自動化実行」ボタンをクリック
- 実際の AI エージェントが XX→YY を連続実行
- リアルタイム実行状況とログを表示
実装優先度:
- Critical: AgentCore MCP 統合(核となる接続機能)
- High: AI エージェント自動生成・デプロイ(差別化要素)
- High: XX→YY 連続実行 UI/UX(体験の見える化)
- Medium: エラーハンドリング・リトライ機能
この改善により、ワークショップ参加者は「なぜXXとYYが同時にできないのか」という問いに対して、実際に動作する AI エージェントによる自動化ソリューションを体験でき、現実的で価値のある学習体験を得られるようになります。