From 7b8223daaddfec31a1847a133315d5fde13b63fb Mon Sep 17 00:00:00 2001 From: yangdx Date: Mon, 3 Nov 2025 04:02:40 +0800 Subject: [PATCH] Update env.example with host/endpoint clarifications for LLM/embedding --- env.example | 10 ++++++---- 1 file changed, 6 insertions(+), 4 deletions(-) diff --git a/env.example b/env.example index 90977e6e..f60ba29d 100644 --- a/env.example +++ b/env.example @@ -166,10 +166,11 @@ MAX_PARALLEL_INSERT=2 ### Num of chunks send to Embedding in single request # EMBEDDING_BATCH_NUM=10 -########################################################### +########################################################################### ### LLM Configuration ### LLM_BINDING type: openai, ollama, lollms, azure_openai, aws_bedrock -########################################################### +### LLM_BINDING_HOST: host only for Ollama, endpoint for other LLM service +########################################################################### ### LLM request timeout setting for all llm (0 means no timeout for Ollma) # LLM_TIMEOUT=180 @@ -224,10 +225,11 @@ OLLAMA_LLM_NUM_CTX=32768 ### Bedrock Specific Parameters # BEDROCK_LLM_TEMPERATURE=1.0 -#################################################################################### +####################################################################################### ### Embedding Configuration (Should not be changed after the first file processed) ### EMBEDDING_BINDING: ollama, openai, azure_openai, jina, lollms, aws_bedrock -#################################################################################### +### EMBEDDING_BINDING_HOST: host only for Ollama, endpoint for other Embedding service +####################################################################################### # EMBEDDING_TIMEOUT=30 EMBEDDING_BINDING=ollama EMBEDDING_MODEL=bge-m3:latest