update: traducción NLLB y compose
This commit is contained in:
parent
8109dbf274
commit
da4c59a0e1
5 changed files with 593 additions and 21 deletions
33
Dockerfile
33
Dockerfile
|
|
@ -1,28 +1,45 @@
|
|||
# Usa una imagen base de Python ligera y moderna
|
||||
FROM python:3.11-slim
|
||||
|
||||
# Permite elegir CPU o CUDA en build:
|
||||
# - TORCH_CUDA=cpu -> instalar torch CPU
|
||||
# - TORCH_CUDA=cu121 -> instalar torch con CUDA 12.1
|
||||
ARG TORCH_CUDA=cpu
|
||||
|
||||
# Establece el directorio de trabajo dentro del contenedor
|
||||
WORKDIR /app
|
||||
|
||||
# Instala dependencias del sistema necesarias para psycopg2
|
||||
# Paquetes nativos necesarios
|
||||
RUN apt-get update && apt-get install -y --no-install-recommends \
|
||||
libpq-dev \
|
||||
gcc \
|
||||
git \
|
||||
&& rm -rf /var/lib/apt/lists/*
|
||||
|
||||
# Copia solo el archivo de requerimientos primero para aprovechar el caché de Docker
|
||||
# Copia requirements primero para aprovechar caché
|
||||
COPY requirements.txt .
|
||||
|
||||
# Instala las dependencias de Python
|
||||
# Instala dependencias Python "comunes"
|
||||
RUN pip install --no-cache-dir -r requirements.txt
|
||||
|
||||
# Copia el resto del código de la aplicación al contenedor
|
||||
# Instala PyTorch según ARG (CPU o CUDA 12.1)
|
||||
# (Versión de ejemplo; puedes alinear con tu stack)
|
||||
RUN if [ "$TORCH_CUDA" = "cu121" ]; then \
|
||||
pip install --no-cache-dir --index-url https://download.pytorch.org/whl/cu121 \
|
||||
torch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1; \
|
||||
else \
|
||||
pip install --no-cache-dir torch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1; \
|
||||
fi
|
||||
|
||||
# Copia el resto del código
|
||||
COPY . .
|
||||
|
||||
# Descarga los modelos de lenguaje de NLTK
|
||||
RUN python download_models.py
|
||||
# Descarga recursos NLTK si tu app los necesita
|
||||
# (si no los usas, comenta esta línea)
|
||||
RUN python download_models.py || true
|
||||
|
||||
# Expone el puerto que usará Gunicorn
|
||||
# Expone el puerto de Gunicorn (servicio web)
|
||||
EXPOSE 8000
|
||||
|
||||
# El CMD se especificará en docker-compose.yml para cada servicio
|
||||
# El CMD lo define docker-compose para cada servicio
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue