ranking y tags

This commit is contained in:
jlimolina 2025-10-17 04:10:09 +02:00
parent 0bfeb610a9
commit d29152a0f6
9 changed files with 344 additions and 48 deletions

View file

@ -1,12 +1,10 @@
# Usa una imagen base de Python ligera y moderna
# Imagen base Python
FROM python:3.11-slim
# Permite elegir CPU o CUDA en build:
# - TORCH_CUDA=cpu -> instalar torch CPU
# - TORCH_CUDA=cu121 -> instalar torch con CUDA 12.1
ARG TORCH_CUDA=cpu
# Por defecto construimos para CUDA 12.1 (cu121)
# Si alguna vez quisieras CPU, pásale: --build-arg TORCH_CUDA=cpu
ARG TORCH_CUDA=cu121
# Establece el directorio de trabajo dentro del contenedor
WORKDIR /app
# Paquetes nativos necesarios
@ -16,30 +14,36 @@ RUN apt-get update && apt-get install -y --no-install-recommends \
git \
&& rm -rf /var/lib/apt/lists/*
# Copia requirements primero para aprovechar caché
# Requerimientos
COPY requirements.txt .
# Instala dependencias Python "comunes"
RUN pip install --no-cache-dir -r requirements.txt
# Actualiza pip y herramientas base
RUN python -m pip install --no-cache-dir --upgrade pip setuptools wheel
# Instala PyTorch según ARG (CPU o CUDA 12.1)
# (Versión de ejemplo; puedes alinear con tu stack)
# Instala PyTorch con el runtime CUDA 12.1 (o CPU si TORCH_CUDA=cpu)
RUN if [ "$TORCH_CUDA" = "cu121" ]; then \
pip install --no-cache-dir --index-url https://download.pytorch.org/whl/cu121 \
torch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1; \
else \
pip install --no-cache-dir torch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1; \
pip install --no-cache-dir \
torch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1; \
fi
# Copia el resto del código
# Instala el resto de dependencias de tu app
RUN pip install --no-cache-dir -r requirements.txt
# spaCy + modelo español (para el NER que quieres después)
RUN pip install --no-cache-dir "spacy>=3.7,<4.0" \
&& python -m spacy download es_core_news_md
# Copia el código
COPY . .
# Descarga recursos NLTK si tu app los necesita
# (si no los usas, comenta esta línea)
# (Opcional) descarga recursos NLTK si tu app los usa; si no, déjalo como no-op
RUN python download_models.py || true
# Expone el puerto de Gunicorn (servicio web)
# Puerto que usará gunicorn en el servicio web
EXPOSE 8000
# El CMD lo define docker-compose para cada servicio
# El CMD lo define docker-compose