Code/IA/02 - injection_fiches/docker-compose.yml.example
2025-05-20 16:52:46 +02:00

40 lines
1.4 KiB
Plaintext

version: '3.8'
services:
privategpt:
image: ghcr.io/zylon-ai/private-gpt:latest
container_name: privategpt
ports:
- "8001:8001"
environment:
- PGPT_PROFILES=local
# Décommentez et modifiez ces variables si vous voulez utiliser un modèle différent
# - PGPT_SETTINGS_LLMS_DEFAULT__MODEL=/models/custom-model.gguf
# - PGPT_SETTINGS_EMBEDDING_DEFAULT__MODEL=/models/custom-embedding-model
volumes:
# Volume persistant pour les données
- privategpt-data:/app/local_data
# Montage du répertoire d'auto-injection
- ./documents_to_ingest:/app/documents_to_ingest
# Montage des modèles personnalisés (décommentez si nécessaire)
# - ./custom_models:/app/models
restart: unless-stopped
# Décommentez ces lignes si vous avez un GPU NVIDIA
# deploy:
# resources:
# reservations:
# devices:
# - driver: nvidia
# count: 1
# capabilities: [gpu]
volumes:
privategpt-data:
name: privategpt-data
# Instructions d'utilisation:
# 1. Copiez ce fichier sous le nom "docker-compose.yml"
# 2. Créez un répertoire "documents_to_ingest" à côté du fichier docker-compose.yml
# 3. Placez vos documents à injecter dans ce répertoire
# 4. Lancez avec la commande: docker-compose up -d
# 5. Utilisez le script d'injection: ./auto_ingest.sh -d documents_to_ingest -u http://localhost:8001