version: '3.8' services: privategpt: image: ghcr.io/zylon-ai/private-gpt:latest container_name: privategpt ports: - "8001:8001" environment: - PGPT_PROFILES=local # Décommentez et modifiez ces variables si vous voulez utiliser un modèle différent # - PGPT_SETTINGS_LLMS_DEFAULT__MODEL=/models/custom-model.gguf # - PGPT_SETTINGS_EMBEDDING_DEFAULT__MODEL=/models/custom-embedding-model volumes: # Volume persistant pour les données - privategpt-data:/app/local_data # Montage du répertoire d'auto-injection - ./documents_to_ingest:/app/documents_to_ingest # Montage des modèles personnalisés (décommentez si nécessaire) # - ./custom_models:/app/models restart: unless-stopped # Décommentez ces lignes si vous avez un GPU NVIDIA # deploy: # resources: # reservations: # devices: # - driver: nvidia # count: 1 # capabilities: [gpu] volumes: privategpt-data: name: privategpt-data # Instructions d'utilisation: # 1. Copiez ce fichier sous le nom "docker-compose.yml" # 2. Créez un répertoire "documents_to_ingest" à côté du fichier docker-compose.yml # 3. Placez vos documents à injecter dans ce répertoire # 4. Lancez avec la commande: docker-compose up -d # 5. Utilisez le script d'injection: ./auto_ingest.sh -d documents_to_ingest -u http://localhost:8001