Skip to content

fooxygg/CodePilotX

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

CodePilotX

Local AI Coding Copilot - corre en tu propio hardware, usalo desde cualquier lugar.

Instalacion rapida

Linux / Ubuntu (VPS):

curl -fsSL https://raw.githubusercontent.com/fooxygg/CodePilotX/main/scripts/install.sh | bash

Windows PowerShell:

irm https://raw.githubusercontent.com/fooxygg/CodePilotX/main/scripts/install.ps1 | iex

Windows CMD:

curl -fsSL https://raw.githubusercontent.com/fooxygg/CodePilotX/main/scripts/install.cmd -o install.cmd && install.cmd && del install.cmd

O directo con pip:

pip install codepilotx

Uso

cpx                          # chat interactivo
cpx ask "explica este error" # pregunta rapida
cpx serve --port 4444        # inicia servidor en tu PC
cpx config server <url>      # conectar a servidor remoto
cpx config api-key <clave>   # proteger con API key
cpx status                   # ver estado de conexion

Arquitectura

VPS / cualquier maquina          TU PC (GPU local)
┌─────────────────────┐          ┌─────────────────────┐
│  pip install        │  HTTP →  │  cpx serve          │
│  codepilotx         │          │  Ollama + modelo    │
│  cpx chat           │          │  puerto 4444        │
└─────────────────────┘          └─────────────────────┘

El modelo corre 100% en tu hardware. Sin costos, sin restricciones, sin privacidad comprometida.

Requisitos (servidor / tu PC)

  • Python 3.9+
  • Ollama
  • Modelo: ollama pull qwen2.5-coder:7b

Licencia

MIT

About

IA

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors