Documentation
¶
Overview ¶
chain_selfquery_demo 演示链式流程:
自查询 → 查询扩展 → 查询重写 → 混合检索(RAG,向量+关键词,内置 rerank) → 规则压缩上下文 → LLM 依据片段作答
环境变量 — LLM(与 pkg/llm 一致,utils.GetEnv 可读 .env):
OPENAI_API_KEY 必填(或当前 Provider 对应密钥) OPENAI_BASE_URL OpenAI 兼容网关(如阿里云 compatible-mode/v1) LING_LLM_PROVIDER 可选 OPENAI_MODEL 可选
环境变量 — RAG(默认开启;设置 LING_SKIP_RAG=1 则跳过检索,仅跑前半段 + 无检索回答):
QDRANT_URL / QDRANT_API_KEY / QDRANT_COLLECTION NVIDIA_EMBEDDINGS_URL / NVIDIA_EMBEDDINGS_MODEL / NVIDIA_API_KEY(或你已有的 OpenAI 兼容 embeddings 端点) LING_HYBRID_INDEX_BASE 必填(非 skip 时):本地关键词索引目录,例如 ./.ling_hybrid_idx SILICONFLOW_RERANK_URL / SILICONFLOW_RERANK_MODEL / SILICONFLOW_API_KEY 可选;不设则 Hybrid 不调用 rerank LING_KB_NAMESPACE 可选,知识库 namespace,默认 default LING_STRICT_RAG=1 可选:答案严格仅依据检索资料,找不到则「未找到相关信息」(默认关闭,允许资料无关时用模型常识/创作完成请求) LING_EMOTIONAL=1 可选:最终 Answer 调用 LLM 时开启略偏情感化、有温度的表达(见 pkg/llm QueryOptions.EmotionalTone)
Click to show internal directories.
Click to hide internal directories.