CryptoPromptAI es una herramienta avanzada de análisis y generación de prompts para el mercado de criptomonedas, con especial enfoque en memecoins. Combina análisis de mercado en tiempo real, procesamiento de lenguaje natural y análisis de seguridad para generar y evaluar prompts de trading de manera inteligente.
- Generación dinámica basada en datos de mercado en tiempo real
- Integración con análisis de sentimiento social
- Templates especializados para diferentes tipos de criptomonedas
- Evaluación de claridad y especificidad de prompts
- Análisis de seguridad y detección de riesgos
- Métricas personalizadas para el mercado crypto
- Dashboards interactivos con Plotly
- Heatmaps de correlaciones
- Análisis temporal de métricas
- Detección de términos sensibles
- Evaluación de riesgos en prompts
- Clasificación de niveles de seguridad
# Clonar el repositorio
git clone https://github.com/yourusername/cryptoprompai.git
cd cryptoprompai
# Crear entorno virtual
python -m venv venv
source venv/bin/activate # En Windows: venv\Scripts\activate
# Instalar dependencias
pip install -r requirements.txt
# Descargar modelo de spaCy
python -m spacy download es_core_news_lg
from cryptoprompai import MemecoinsPromptGenerator
# Inicializar el generador
generator = MemecoinsPromptGenerator()
# Generar prompt para DOGE
prompt = generator.generate_prompt('DOGE')
print(prompt)
from cryptoprompai import SimplePromptAnalyzer
# Inicializar el analizador
analyzer = SimplePromptAnalyzer()
# Analizar un prompt
metrics = analyzer.evaluate_prompt(prompt)
print(metrics)
# Visualizar resultados
analyzer.visualize_metrics()
cryptoprompai/
├── src/
│ ├── generators/
│ │ ├── __init__.py
│ │ └── memecoin_generator.py
│ ├── analyzers/
│ │ ├── __init__.py
│ │ ├── prompt_analyzer.py
│ │ └── security_analyzer.py
│ └── visualization/
│ └── plotly_dashboard.py
├── tests/
├── examples/
├── requirements.txt
└── README.md
- Python 3.8+
- spaCy
- Plotly
- Pandas
- yfinance
- TextBlob
- Tweepy (opcional para integración con Twitter)
Las contribuciones son bienvenidas. Por favor, sigue estos pasos:
- Fork el proyecto
- Crea una nueva rama (
git checkout -b feature/nueva-caracteristica
) - Realiza tus cambios y haz commit (
git commit -am 'Añade nueva característica'
) - Push a la rama (
git push origin feature/nueva-caracteristica
) - Abre un Pull Request
Este software es solo para fines educativos y de investigación. No constituye asesoramiento financiero y los autores no son responsables de pérdidas financieras derivadas de su uso.
# Habilitar GPU en Colab
# 1. Runtime -> Change runtime type -> GPU
# Instalación y configuración
!pip install -q cryptoprompai
!nvidia-smi # Verificar GPU disponible
# Importar y usar
from cryptoprompai import MemecoinsPromptGenerator
generator = MemecoinsPromptGenerator(use_gpu=True)
# Verificar CUDA (para GPU)
nvidia-smi
# Configuración recomendada
python -m venv venv --prompt cryptoprompai
source venv/bin/activate
pip install -r requirements.txt
-
Uso de GPU:
- Recomendado para análisis de grandes volúmenes de datos
- Acelera significativamente el procesamiento de NLP
- Requiere CUDA 11.0+ para PyTorch
-
Gestión de Memoria:
# Limpieza de memoria GPU import torch torch.cuda.empty_cache() # Uso eficiente de generators with generator.batch_process() as batch: results = batch.analyze_multiple(prompts)
-
Procesamiento por Lotes:
- Usar
batch_size
apropiado según memoria disponible - Implementar procesamiento asíncrono para múltiples requests
- Usar
# Configuración para mejor rendimiento
import plotly.io as pio
pio.templates.default = "plotly_dark" # Tema oscuro para menos consumo
pio.renderers.default = "notebook" # Optimizado para notebooks
-
API Keys:
# Usar variables de entorno from dotenv import load_dotenv load_dotenv() api_key = os.getenv('TWITTER_API_KEY') generator = MemecoinsPromptGenerator(api_key=api_key)
-
Rate Limiting:
# Implementar rate limiting para APIs from ratelimit import limits, sleep_and_retry @sleep_and_retry @limits(calls=30, period=60) # 30 calls per minute def fetch_market_data(): pass
-
Logging:
import logging logging.basicConfig( level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s' )
-
Procesamiento Distribuido:
# Usando Dask para datasets grandes import dask.dataframe as dd ddf = dd.from_pandas(big_df, npartitions=4) results = ddf.map_partitions(analyzer.process_batch)
-
Caché:
# Implementar caché para requests frecuentes from functools import lru_cache @lru_cache(maxsize=128) def get_market_data(symbol): pass
# Ejecutar tests con cobertura
pytest --cov=cryptoprompai tests/
# Monitorear uso de GPU
def print_gpu_utilization():
print(torch.cuda.get_device_properties(0).total_memory)
print(torch.cuda.memory_allocated())
-
Pre-procesamiento:
- Implementar limpieza de datos robusta
- Normalizar inputs antes del análisis
- Usar técnicas de data augmentation cuando sea apropiado
-
Modelos:
- Mantener modelos actualizados
- Implementar versioning de modelos
- Usar model checkpointing
-
Producción:
- Dockerizar la aplicación
- Implementar health checks
- Monitorear métricas clave
-
Análisis en Tiempo Real:
# Configuración recomendada generator = MemecoinsPromptGenerator( real_time=True, batch_size=32, cache_timeout=300 # 5 minutos )
-
Análisis Histórico:
# Configuración para grandes volúmenes de datos históricos analyzer = SimplePromptAnalyzer( use_multiprocessing=True, chunk_size=10000, optimize_memory=True )
-
Desarrollo/Testing:
# Configuración para desarrollo generator = MemecoinsPromptGenerator( mock_data=True, # Usar datos simulados debug=True )