AI知识库问答开源项目汇总

1、 基于大模型和 RAG 的知识库问答系统—maxkb:https://maxkb.cn

2、chatwiki:GitHub - zhimaAi/chatwiki: 开箱即用的基于企业私有知识库的LLM大语言模型的智能客服机器人问答系统,支持私有化部署,代码免费开源且可商用,由芝麻小客服官方推出。

3、fastgpt:GitHub - labring/FastGPT: FastGPT is a knowledge-based platform built on the LLMs, offers a comprehensive suite of out-of-the-box capabilities such as data processing, RAG retrieval, and visual AI workflow orchestration, letting you easily develop and deploy complex question-answering systems without the need for extensive setup or configuration.

4、anythingllm:GitHub - Mintplex-Labs/anything-llm: The all-in-one Desktop & Docker AI application with built-in RAG, AI agents, No-code agent builder, and more.

5、RAGFlow:GitHub - infiniflow/ragflow: RAGFlow is an open-source RAG (Retrieval-Augmented Generation) engine based on deep document understanding.

6、QAnything:GitHub - netease-youdao/QAnything: Question and Answer based on Anything.

还有一些如

  • cherry studio的知识库等一些项目

  • 一些低代码构建ai应用项目dify、coze等

  • 成熟的产品:如google notebooklm等

看到这么多还没汇集全的项目,突然觉得自己研究RAG没意义了。每当有困惑时,和claude交流没准能激发思想的火花。

去年年底按照huggingface教程指出的RAG流程中可以增强的点,水了3篇论文。

一篇待出版检索,一篇待参会,一篇等待结果,希望结果好一些。

毕业要求:发表一篇省级以上的刊物,达到了毕业要求,就只需水毕业论文了,水完毕业论文,我这辈子再也不碰论文,学术不适合我。

7、langchain-chatchat:GitHub - chatchat-space/Langchain-Chatchat: Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM, Qwen 与 Llama 等语言模型的 RAG 与 Agent 应用 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM, Qwen and Llama) RAG and Agent app with langchain

国产的纳米AI搜索/智谱清言等据说也支持知识库,以此来进行问答。

飞书知识问答:https://bytedance.larkoffice.com/docx/AngMd4eYJoTs6rxVsWZcUxpdnrb

火山方舟知识库:

国内LLM API平台基本都有,阿里云百炼等也有。

生产就绪型RAG检索系统:GitHub - SciPhi-AI/R2R: SoTA production-ready AI retrieval system. Agentic Retrieval-Augmented Generation (RAG) with a RESTful API.

基于RAG的开源文档聊天工具:GitHub - Cinnamon/kotaemon: An open-source RAG-based tool for chatting with your documents.

开箱即用的基于企业私有知识库的LLM大语言模型的智能客服机器人问答系统: GitHub - zhimaAi/chatwiki: 开箱即用的基于企业私有知识库的LLM大语言模型的智能客服机器人问答系统,支持私有化部署,代码免费开源且可商用,由芝麻小客服官方推出。