引言

在当今的AI生态中,你发送给ChatGPT、Perplexity或其他云端AI服务的每一个查询都会将你的问题留在别人的服务器上。对于研究人员、记者、投资者以及任何处理敏感信息的用户来说,这是一个根本性的问题。

Local Deep Research(由LearningCircuit开发)是一个开源的、隐私优先的AI研究平台,它完全在你的计算机上运行。凭借超过7,000个GitHub星标和迅速增长的用户群(本周新增2,494个星标),它已经成为互联网上发展最快的隐私优先AI项目之一。

与传统AI搜索工具不同,Local Deep Research让你完全掌控自己的数据、模型和研究过程——同时提供与最先进的系统相媲美的结果质量。

Local Deep Research是什么?

Local Deep Research(简称LDR)是一款基于智能体的AI研究助手,它能自动化整个研究工作流程:提出问题、在学术数据库和网页间自动搜索、收集信息源、分析研究发现、最终将所有内容综合成一份带有规范引用的研究报告——整个过程全部在你自己的机器上完成。

把它想象成一个全天候工作的个人研究分析师,从不把你的问题发送到任何地方,并且从每次会话中构建不断增长的可检索知识库。

关键数据一览

指标数值
GitHub星标7,035+(本周新增2,494)
Docker拉取次数15,000+
基准测试准确率SimpleQA基准约95%
支持搜索引擎10+(arXiv、PubMed、Wikipedia、SearXNG等)
编程语言Python、JavaScript/TypeScript、HTML/CSS
许可证开源
硬件要求CPU即可运行;GPU可提升性能

为什么选择Local Deep Research而不是云服务?

AI研究市场主要由OpenAI的Deep Research、Perplexity Pro和NotebookLM等产品主导——这些都需要将你的查询发送到外部服务器。以下是Local Deep Research的不同之处:

特性Local Deep ResearchPerplexity ProNotebookLMOpenAI Deep Research
数据留在本机✅ 完全本地❌ 发送至云端❌ 发送至Google❌ 发送至OpenAI
离线工作(安装后)✅ 可以❌ 需要网络❌ 需要网络❌ 需要网络
无需月订阅费✅ 免费开源$20/月免费(需Google账户)$200/月(ChatGPT Ultra)
自定义LLM支持✅ Ollama、LM Studio、llama.cpp❌ 仅GPT❌ 仅Google模型❌ 仅OpenAI
加密知识库✅ SQLCipher加密❌ 无加密❌ 无加密❌ 无加密
自托管部署✅ Docker、pip、CLI❌ 不可用❌ 不可用❌ 不可用
企业API访问✅ REST API + MCP❌ 有限API❌ 无公开API❌ 无API
学术论文索引✅ arXiv、PubMed、Semantic Scholar部分支持❌ 不支持❌ 不支持

核心功能详解

1. 多种研究模式

快速摘要 — 在30秒到3分钟内获得带有引用的简明答案。非常适合快速核实事实和探索新主题。

深度研究 — 全面的分析报告,结构化的发现和详尽的来源引用。适合准备演示文稿、撰写文章或做出投资决策。

报告生成 — 专业质量的报告,带目录和规范格式,支持PDF或Markdown下载。这些是可直接发布的成果物。

文档分析 — 上传你的私人文档并直接将其与研究相结合。文件经过加密存储,永远不会离开你的设备。

2. 20+种研究策略

LDR不只局限于单一方法。它提供了超过20种针对不同使用场景优化的研究策略:

  • 快速获取事实 — 用最少token进行快速检索
  • 深度分析 — 针对复杂问题的多轮推理
  • 学术研究 — 优化用于学术论文的发现和综合
  • LangGraph智能体策略 — 自主智能体模式,LLM动态决定搜索什么、使用哪些专门引擎以及何时综合结果

LangGraph策略尤为强大:它会根据发现的内容自适应切换搜索引擎,比流水线式方法收集的资料来源显著更多。

3. 广泛的搜索引擎支持

LDR集成了超过10种跨类别的搜索来源:

免费学术来源:

  • arXiv — 计算机科学、物理学和数学领域的预印本论文
  • PubMed — 生物医学和生命科学文献
  • Semantic Scholar — 基于AI的学术论文搜索
  • Wikipedia — 通用知识库

免费通用来源:

  • SearXNG — 尊重隐私的元搜索引擎
  • GitHub — 代码仓库和开发者讨论
  • Elasticsearch — 技术文档搜索
  • Wayback Machine — 历史网页存档
  • The Guardian和Wikinews — 新闻报道

付费来源(可选):

  • Tavily — AI驱动的网络搜索
  • Google — 通过SerpAPI或Programmable Search Engine
  • Brave Search — 隐私优先的通用搜索

4. 构建个人知识库

每次研究会话都会发现有价值的资料。只需一键,你就可以将它们保存到加密库中——来自arXiv的学术论文、PubMed文章或网页。LDR提取文本、对所有内容建立索引和嵌入,使其可被检索。

随着时间的推移,你的知识库会不断积累:每次会话都受益于你积累的研究报告加上实时网络来源。

5. MCP服务器集成

LDR最强大的功能之一是内置的MCP(Model Context Protocol)服务器,允许AI助手如Claude DesktopClaude Code按需执行深度研究。这意味着你可以让Claude"深入研究X主题",Claude将委托给Local Deep Research,返回全面且有引用的报告——而无需离开Claude界面。

6. 高级功能

  • 分析仪表板 — 追踪成本、性能指标和使用模式
  • 期刊质量系统 — 对21.2万+个已索引学术来源进行自动声誉评分,检测掠夺性期刊
  • 研究订阅 — 每日、每周或自定义时间表的自动化研究摘要
  • 实时更新 — WebSocket支持,在研究会话期间实时跟踪进度
  • 自适应限速 — 智能重试系统,学习受限API的最佳等待时间
  • 每用户加密数据库 — SQLCipher加密确保完全的数据隔离

逐步教程:安装和运行Local Deep Research

方案一:Docker Compose(推荐所有用户)

这是最简单的入门方式。一条命令即可启动所有必需组件:

# 下载Docker Compose配置文件
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml

# 启动服务(CPU模式,适用于所有平台)
docker compose up -d

大约30秒后,在浏览器中打开 http://localhost:5000,即可开始研究。

NVIDIA GPU配置(Linux):

curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.gpu.override.yml
docker compose -f docker-compose.yml -f docker-compose.gpu.override.yml up -d

方案二:pip安装(macOS、Windows、Linux)

pip install local-deep-research

适用于三大主流操作系统。SQLCipher加密已包含在预编译的wheel包中,无需手动编译。

方案三:手动Docker部署

面向希望自定义各组件的高级用户:

# 第1步:本地运行Ollama
docker run -d -p 11434:11434 --name ollama ollama/ollama
docker exec ollama ollama pull gpt-oss:20b

# 第2步:运行SearXNG以增强搜索能力
docker run -d -p 8080:8080 --name searxng searxng/searxng

# 第3步:运行Local Deep Research
docker run -d -p 5000:5000 --network host \
  --name local-deep-research \
  --volume "deep-research:/data" \
  -e LDR_DATA_DIR=/data \
  localdeepresearch/local-deep-research

配置你的大语言模型

安装完成后,配置驱动你研究的模型。LDR支持:

本地模型(零API成本):

  • Ollama — 连接到 localhost:11434。热门模型:Llama 3、Mistral、Gemma、DeepSeek、Qwen
  • LM Studio — 连接到其OpenAI兼容服务端 localhost:1234/v1
  • llama.cpp — 连接到 llama-serverlocalhost:8080/v1

云端模型(如果你偏好托管推理):

  • OpenAI (GPT-4、GPT-3.5)
  • Anthropic (Claude 3系列)
  • Google (Gemini)
  • 通过OpenRouter支持100+模型

在Web界面的 设置 → LLM 中选择你偏好的模型。使用本地模型意味着零持续成本和完全的数据隐私。

Local Deep Research实战示例

示例1:通过Python API快速研究

from local_deep_research.api import LDRClient, quick_query

# 一行代码实现简单研究
summary = quick_query("username", "password", "量子计算的最新突破是什么?")
print(summary)

# 使用客户端进行多次操作
client = LDRClient()
client.login("username", "password")
result = client.quick_research("AI如何改变2026年的药物研发?")
print(result["summary"])

示例2:通过MCP集成Claude Desktop

配置Claude Desktop以使用Local Deep Research执行深度研究任务。设置完成后,你只需问Claude:

“请深入研究Transformer模型优化技术并整理一份报告。”

Claude会自动调用LDR的MCP服务器,跨多个来源执行研究,然后返回一份全面的、带引用的报告——全程无需离开Claude界面。

示例3:自动化市场情报监控

利用LDR的订阅功能保持信息更新:

  1. 订阅感兴趣的主题如"量子计算进展"、“生物科技融资轮次"或"半导体供应链”
  2. 收到自动生成的每日或每周研究摘要
  3. 结果以带来源引用的结构化Markdown报告形式送达
  4. 使用加密知识库对比随时间的变化

实际应用场景

科研人员和学者

在arXiv、PubMed和Semantic Scholar之间进行系统性文献综述,同时不让你的研究主题暴露给任何云服务。构建个性化的论文知识库,经过标注且可搜索。

新闻记者

调查敏感话题时不留数字足迹。所有查询都在你的机器上完成。将实时网络搜索与存储在本地加密环境中的机密文档分析相结合。

投资者和分析师

使用自动化研究订阅监控市场趋势、公司基本面和行业发展。期刊质量系统确保你阅读的是信誉良好的来源,并过滤掉掠夺性出版物。

开发者和工程师

通过GitHub仓库、技术文档网站和Stack Overflow紧跟技术趋势。使用内置的SimpleQA评估系统运行基准测试,测试不同的LLM配置。

企业团队

在内部网络上部署LDR,配备每用户加密数据库。REST API支持与现有工作流程集成,企业仪表板为整个团队提供使用分析。

性能表现:可与付费服务竞争

当配置GPT-4.1-mini结合SearXNG和焦点迭代策略时,Local Deep Research在SimpleQA基准测试上达到约95%的准确率——这是对事实问答能力的严肃衡量。

更重要的是,在正确配置下,本地模型可以实现类似的性能水平。社区在Hugging FaceGitHub上维护着基准数据集,让你在投入任何设置之前就可以比较数百种本地和云端模型的准确率数据。

一位社区成员在单块NVIDIA RTX 3090上使用Qwen3.6-27B实现了这些成绩,证明专业的AI研究并不昂贵。

与竞争对手对比

vs. Perplexity Pro($20/月)

Perplexity提供速度和便利性,但将所有数据路由到Google的基础设施。LDR提供相当的质量,完全的数据主权、零月费,并可自定义搜索来源和LLM。

vs. NotebookLM(免费)

NotebookLM在Google生态系统内的文档锚定方面表现出色,但需要Google账户并将所有数据发送到Google服务器。LDR允许你用加密存储上传私人文档,并选择任何LLM提供商。

vs. OpenAI Deep Research(ChatGPT Ultra $200/月)

OpenAI的方案功能强大但对大多数用户来说价格过高。LDR以零成本实现类似的结果,在本地运行,并支持更广泛的模型和搜索引擎。

vs. Firecrawl等网页爬取工具

Firecrawl等工具专注于大规模提取网页内容。LDR超越了简单的爬取——它理解上下文、跨多个来源综合发现,并产生带引用的结构化研究输出。

今日开始使用

  1. 访问 github.com/LearningCircuit/local-deep-research
  2. 安装 使用Docker Compose(curl + docker compose up
  3. 配置 在设置中选择你偏好的LLM
  4. 开始研究 — 输入任何问题,观看LDR的神奇效果

整个安装过程使用Docker Compose不到5分钟即可完成。详细设置指南请参阅安装文档

安全性和隐私保护

LDR高度重视安全性。该项目包含了全面的安全扫描:

  • 静态分析(CodeQL、Semgrep、DevSkim、Bearer)
  • 依赖项和安全漏洞扫描(OSV-Scanner、npm-audit)
  • 容器安全检查(Dockle、Hadolint、Checkov)
  • 运行时安全检测(OWASP ZAP扫描、Zizmor工作流检查)

所有用户数据库均使用SQLCipher加密。研究历史、保存的文档和知识库按用户完全隔离。除非你明确配置外部搜索API密钥,否则没有任何东西会离开你的机器。

结论

Local Deep Research代表了我们与AI驱动的研究工交互方式的范式转变。通过将隐私、定制性和数据所有权放在首位,它为那些主导市场的围墙花园AI服务提供了一个有吸引力的替代方案。

无论你是在保护未发表工作的研究人员、报道敏感话题的记者、进行尽职调查的投资者,还是仅仅重视数字隐私的人——Local Deep Research在不妥协的情况下赋予了你深度AI驱动探究的力量。

该项目活跃维护中(329次提交),拥有充满活力的社区,并在全球科技媒体中获得积极评价。随着7,000+星标的持续增长,它显然引起了关心拥有自己AI体验的用户的共鸣。

今天就试试吧。 你的研究值得拥有隐私保护。


相关文章