🇷🇺 Русская версия | 🇬🇧 English version
Этот репозиторий содержит два Python-скрипта для взаимодействия с прокси Manus API, совместимым с OpenAI API.
Оба файла выполняют одну и ту же задачу — отправляют текстовый запрос к LLM-модели и выводят ответ.
Различие только в языке комментариев и интерфейса:
main_ru.py— русская версияmain_en.py— английская версия
- Python 3.9+
- Установленная библиотека
openai - Переменная окружения
MANUS_API_KEYс вашим API ключом Manus
- Установите зависимости:
pip install openai
- Установите переменную окружения с API ключом:
(в Windows PowerShell:)
export MANUS_API_KEY="ваш_ключ"
setx MANUS_API_KEY "ваш_ключ" - Запустите скрипт:
python main_ru.py
- Пример вывода:
🚀 Отправка запроса через прокси: https://api.manus.im/api/llm-proxy/v1/ 🤖 Модель: gemini-2.5-flash 💬 Ответ от AI: -------------------- Hello! I am an AI assistant. -------------------- 📊 Использовано токенов: 42
Вы можете изменить модель, раскомментировав нужную строку в коде:
MODEL_TO_USE = "gemini-2.5-flash"
# MODEL_TO_USE = "gpt-4.1-mini"
# MODEL_TO_USE = "gpt-4.1-nano"
This repository contains two Python scripts for interacting with the Manus proxy API, which is compatible with the OpenAI API. Both scripts perform the same logic — sending a text prompt to an LLM model and displaying the AI response. The only difference is the language of comments and printed messages:
main_en.py— English versionmain_ru.py— Russian version
- Python 3.9+
- Installed
openailibrary- Environment variable
MANUS_API_KEYcontaining your Manus API key
- Environment variable
- Install dependencies:
pip install openai
- Set your API key:
(on Windows PowerShell:)
export MANUS_API_KEY="your_key"
setx MANUS_API_KEY "your_key" - Run the script:
python main_en.py
- Example output:
🚀 Sending request via proxy: https://api.manus.im/api/llm-proxy/v1/ 🤖 Model: gemini-2.5-flash 💬 AI response: -------------------- Hello! I am an AI assistant. -------------------- 📊 Tokens used: 42
You can change the model by modifying this line:
MODEL_TO_USE = "gemini-2.5-flash"
# MODEL_TO_USE = "gpt-4.1-mini"
# MODEL_TO_USE = "gpt-4.1-nano"