From 747c56f25286662999241b89126b7c0915099c99 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?St=C3=A9phan?= Date: Mon, 19 May 2025 09:25:27 +0200 Subject: [PATCH] Update rag.py --- rag.py | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/rag.py b/rag.py index fa48ced..0ecdb01 100644 --- a/rag.py +++ b/rag.py @@ -10,11 +10,11 @@ rag.py — recherche + génération (version robuste, chapitres) – top‑k configurable (déf. 20 pour index détaillé, 5 pour index chapitres). – trie ensuite les hits mettant en avant ceux contenant un mot‑clé fourni (ex. « seuil » pour ICS). -• Génération : appelle Mistral‑7B (Ollama) avec temperature 0.1 et consigne : +• Génération : appelle llama3-8b-fast (Ollama) avec temperature 0.1 et consigne : « Réponds uniquement à partir du contexte. Si l’info manque : Je ne sais pas. » Usage : - python rag.py [--k 25] [--kw seuil] [--model mistral7b-fast] + python rag.py [--k 25] [--kw seuil] [--model llama3-8b-fast] """ from __future__ import annotations import argparse, json, re, sys @@ -33,7 +33,7 @@ p.add_argument("--meta", nargs="*", default=["rapport.meta.json"], help="Liste des méta JSON assortis (même ordre que --index)") p.add_argument("--k", type=int, default=15, help="top‑k cumulés (déf. 15)") p.add_argument("--kw", default="seuil", help="mot‑clé boosté (déf. seuil)") -p.add_argument("--model", default="mistral7b-fast", help="modèle Ollama") +p.add_argument("--model", default="llama3-8b-fast", help="modèle Ollama") args = p.parse_args() if len(args.index) != len(args.meta):