40 lines
1.4 KiB
Plaintext
40 lines
1.4 KiB
Plaintext
version: '3.8'
|
|
|
|
services:
|
|
privategpt:
|
|
image: ghcr.io/zylon-ai/private-gpt:latest
|
|
container_name: privategpt
|
|
ports:
|
|
- "8001:8001"
|
|
environment:
|
|
- PGPT_PROFILES=local
|
|
# Décommentez et modifiez ces variables si vous voulez utiliser un modèle différent
|
|
# - PGPT_SETTINGS_LLMS_DEFAULT__MODEL=/models/custom-model.gguf
|
|
# - PGPT_SETTINGS_EMBEDDING_DEFAULT__MODEL=/models/custom-embedding-model
|
|
volumes:
|
|
# Volume persistant pour les données
|
|
- privategpt-data:/app/local_data
|
|
# Montage du répertoire d'auto-injection
|
|
- ./documents_to_ingest:/app/documents_to_ingest
|
|
# Montage des modèles personnalisés (décommentez si nécessaire)
|
|
# - ./custom_models:/app/models
|
|
restart: unless-stopped
|
|
# Décommentez ces lignes si vous avez un GPU NVIDIA
|
|
# deploy:
|
|
# resources:
|
|
# reservations:
|
|
# devices:
|
|
# - driver: nvidia
|
|
# count: 1
|
|
# capabilities: [gpu]
|
|
|
|
volumes:
|
|
privategpt-data:
|
|
name: privategpt-data
|
|
|
|
# Instructions d'utilisation:
|
|
# 1. Copiez ce fichier sous le nom "docker-compose.yml"
|
|
# 2. Créez un répertoire "documents_to_ingest" à côté du fichier docker-compose.yml
|
|
# 3. Placez vos documents à injecter dans ce répertoire
|
|
# 4. Lancez avec la commande: docker-compose up -d
|
|
# 5. Utilisez le script d'injection: ./auto_ingest.sh -d documents_to_ingest -u http://localhost:8001 |