ねこの人格を持ったAIとお話できるサービスのバックエンドAPI
MacOSを利用する前提の手順になります。
環境変数の設定を行います。
direnv を利用すると既存の環境変数に影響を与えないので便利です。
export OPENAI_API_KEY=OpenAIのAPIキーを指定
export OPEN_WEATHER_API_KEY=https://openweathermap.org/ のAPIキーを指定
export BASIC_AUTH_USERNAME="ベーシック認証のユーザー名(任意の値)"
export BASIC_AUTH_PASSWORD="ベーシック認証のパスワード(任意の値)"
export DB_HOST=PlanetScaleのデータベースホスト名を指定
export DB_NAME=PlanetScaleのデータベース名を指定
export DB_USERNAME=PlanetScaleのデータベースユーザー名を指定
export DB_PASSWORD=PlanetScaleのデータベースパスワードを指定
export SSL_CERT_PATH=`SSL_CERT_PATH` についてを参照
export PLANET_SCALE_SERVICE_TOKEN_ID=`PLANET_SCALE_` から始まる環境変数についてを参照
export PLANET_SCALE_SERVICE_TOKEN_SECRET=`PLANET_SCALE_` から始まる環境変数についてを参照
export PLANET_SCALE_ORG=PlanetScaleの組織名を指定
export PLANET_SCALE_TEST_DB_NAME=参照するPlanetScaleのデータベース名を指定
export PLANET_SCALE_TEST_DB_BRANCH=参照するPlanetScaleのデータベースBranch名を指定
SSL_CERT_PATH
はSSL証明書のパスを指定します。
以下のコマンドで証明書の場所を特定出来ます。
データベースのテストの速度低下を回避する為に PlanetScaleの以下のAPIを利用して取得したDBSchemaを使ってMySQLのコンテナにテスト用のテーブルを作成しています。
https://api-docs.planetscale.com/reference/get-a-branch-schema
PLANET_SCALE_SERVICE_TOKEN_ID
と PLANET_SCALE_SERVICE_TOKEN_SECRET
はAPIの認証情報となります。
必要なスコープは https://api-docs.planetscale.com/reference/get-a-branch-schema を参照してください。
Service tokensの発行方法は下記のドキュメントに記載されています。
https://api-docs.planetscale.com/reference/service-tokens
openssl version -d
筆者の環境だと以下のような結果が表示されました。
OPENSSLDIR: "/private/etc/ssl"
/private/etc/ssl/cert.pem
というファイルがあったので以下の通りに指定しています。
export SSL_CERT_PATH=/private/etc/ssl/cert.pem
Homebrew でインストールを実施します。
brew install rye
以下を実行します。
rye sync
Docker Desktop もしくは OrbStack がインストールされている場合はDockerによる環境構築も可能です。
以下のコマンドでコンテナを起動します。
docker compose up --build -d
※ 2回目以降は docker compose up -d
だけで大丈夫です。
以下のコマンドを実行してSSEのレスポンスが返ってくれば正常動作しています。
API_CREDENTIAL=`echo -n "$BASIC_AUTH_USERNAME:$BASIC_AUTH_PASSWORD" | base64`
curl -v -N \
-X POST \
-H "Content-Type: application/json" \
-H "Authorization: Basic $API_CREDENTIAL" \
-H "Accept: text/event-stream" \
-d '
{
"userId": "6a17f37c-996e-7782-fefd-d71eb7eaaa37",
"message": "こんにちはもこちゃん🐱"
}' \
http://localhost:5002/cats/moko/messages-for-guest-users
コンテナの中に入る場合は以下を実行します。
docker compose exec ai-cat-api bash
これでコンテナ内でテスト等のコマンドを実行可能です。
一点注意点があります。
コンテナ内のカレントディレクトリは /src
になっています。
その為、ここで make lint
等を実行しても上手く行きません。
以下のコマンドで /
に移動します。
cd /
その上で make lint
等を実行する必要があります。
これは結構面倒だと思うのでコンテナ内で各タスクを実行する為のタスクを用意しました。
# コンテナ内でLinterを実行
make lint-container
# コンテナ内でFormatterを実行
make format-container
# コンテナ内でtypecheckを実行
make run-token-creator-container
以下で接続が可能です。
mysql -u root -h 127.0.0.1 -p -P 33060
パスワードは DB_PASSWORD
に設定してある値です。
以下でコンテナを停止します。
docker compose down
もしも Dockerfile
や docker-compose.yml
に変更があった場合は以下のコマンドでコンテナを完全に廃棄してから再度 docker compose up --build -d
を実行するようにお願いします。
docker compose down --rmi all --volumes --remove-orphans
Makefile
に定義されているコマンドについて説明します。
make
が利用出来ない場合は以下のコマンドでインストールします。
brew install make
make lint
make format
テストコードの実行はDockerコンテナを立ち上げる必要があります。
このREADME内の「Dockerによる環境構築」を参考にコンテナを起動してから下記を実行します。
make test-container
make typecheck
以下を実行するとアプリケーションサーバーが起動します。
ただしMySQLのコンテナが立ち上がっている必要があるので結局はDockerを利用する事になります。
ただしデバッガーでブレイクポイント等を利用する場合はこちらのほうがやりやすいと思います。
make run
以下で動作確認が可能です。
API_CREDENTIAL=`echo -n "$BASIC_AUTH_USERNAME:$BASIC_AUTH_PASSWORD" | base64`
curl -v -N \
-X POST \
-H "Content-Type: application/json" \
-H "Authorization: Basic $API_CREDENTIAL" \
-H "Accept: text/event-stream" \
-d '
{
"userId": "6a17f37c-996e-7782-fefd-d71eb7eaaa37",
"message": "こんにちはもこちゃん🐱"
}' \
http://0.0.0.0:8000/cats/moko/messages-for-guest-users
GitHubActions上のテストコードは並列実行されています。
その為、固定のDB名を用いたテストコードだとテストが失敗する可能性があります。
既存テストコードを参考にテストケース毎にユニークなDB名を生成するようにお願いします。(tests/db/setup_test_database.py
の create_test_db_name
を利用します)
ローカルのMySQLコンテナにはどんどんテスト用のデータベースが作成されてしまうので、定期的に以下を実行してコンテナを作り直す事を推奨します。
# 一度コンテナを削除(MySQLのコンテナ内のデータも含めて削除)
docker compose down --rmi all --volumes --remove-orphans
# 再度コンテナを立ち上げる
docker compose up --build -d
本アプリケーションは https://fly.io でホスティングされています。
ステージングと本番の2つの環境が存在します。
main
にPRがマージされるとステージング環境にデプロイされます。
本番環境へのデプロイは https://github.com/nekochans/ai-cat-api/releases から新しいリリースページを作成する事で実行されます。
ロールバックの際は 本番用のデプロイワークフロー を手動実行する事になりますが、その際にGitタグがあると前のバージョンに戻しやすいので必ず作成します。
別サービスのドキュメントですが lgtm-cat-ui 5. リリースページの作成 と手順は同じです。
以下のテストコードを実行するとねこの人格を持ったAIのレスポンス評価をLLMを使って評価します。
rye run pytest -vv -s tests/infrastructure/repository/openai/openai_cat_message_repository/test_generate_message_for_guest_user.py
ただし普段はテスト実行時間があまりにも長い事や、APIの利用料金が高くなってしまうのでテストをスキップするようにしています。
実行する際は tests/infrastructure/repository/openai/openai_cat_message_repository/test_generate_message_for_guest_user.py
の以下の部分をコメントアウトしてください。
import pytest
@pytest.mark.skip(reason="APIの課金が発生する、実行時間が非常に長いため普段はスキップ")