서론

오늘날의 AI 생태계에서는 ChatGPT, Perplexity 또는 다른 클라우드 기반 AI 서비스에 보내는 모든 쿼리가 누군가의 서버에 남아갑니다. 연구자, 기자, 투자자 및 민감한 정보를 다루는 모든 사용자에게 이는 근본적인 문제입니다.

Local Deep Research(LearningCircuit 개발)은 완전히 당신의 컴퓨터에서 실행되는 오픈소스, 프라이버시 우선 AI 연구 플랫폼입니다. 7,000개가 넘는 GitHub 스타와 급성장하는 사용자층(이번 주에만 2,494개의 신규 스타)으로, 인터넷에서 가장 빠르게 성장하는 프라이버시 우선 AI 프로젝트 중 하나가 되었습니다.

전통적인 AI 검색 도구와 달리 Local Deep Research는 데이터, 모델, 연구 프로세스를 완전히 제어할 수 있게 해주며 — 동시에 최첨단 시스템과 비교할 만한 결과를 제공합니다.

Local Deep Research란?

Local Deep Research(LDR)는 에이전트 기반 AI 연구 보조 도구로, 전체 연구 워크플로를 자동화합니다: 질문을 formulation하고, 학술 데이터베이스와 웹 페이지 사이에서 자동으로 검색하고, 출처를 수집하고, 연구 결과를 분석하고, 모든 것을 인용 부호가 포함된 보고서로 종합합니다 — 전체 과정이 당신 기계에서 로컬로 실행됩니다.

하루 종일 일하는 개인 연구 Analyst를 상상해 보세요. 절대 당신의 질문을 어디에도 보냈다가 돌아오지 않으며, 매 세션마다 확장 가능한 검색 가능한 지식베이스를 구축합니다.

주요 지표 한눈에 보기

지표
GitHub Stars7,035+ (이번 주 +2,494)
Docker Pulls15,000+
벤치마크 정확도SimpleQA 약 95%
지원 검색 엔진10+개 (arXiv, PubMed, Wikipedia, SearXNG 등)
프로그래밍 언어Python, JavaScript/TypeScript, HTML/CSS
라이선스오픈소스
하드웨어 요구사항CPU로 실행 가능; GPU는 성능 향상에 옵션

왜 클라우드 대체재를 선택하지 않고 Local Deep Research인가?

AI 연구 시장은 OpenAI의 Deep Research, Perplexity Pro, NotebookLM 등 여러 제품들이 주도하고 있으며 — 이들은 모두 외부 서버로 쿼리를 전송해야 합니다. Local Deep Research가 다른 이유들:

기능Local Deep ResearchPerplexity ProNotebookLMOpenAI Deep Research
데이터 기기 내부에 유지✅ 완전 로컬❌ 클라우드 전송❌ Google로 전송❌ OpenAI로 전송
오프라인 작동 (설정 후)✅ 가능❌ 인터넷 필요❌ 인터넷 필요❌ 인터넷 필요
월 구독료 불필요✅ 무료 & 오픈소스$20/월무료 (Google 계정 필요)$200/월 (ChatGPT Ultra)
커스터텀 LLM 지원✅ Ollama, LM Studio, llama.cpp❌ GPT 전용❌ Google 모델만❌ OpenAI만
암호화된 지식베이스✅ SQLCipher 암호화❌ 암호화 없음❌ 암호화 없음❌ 암호화 없음
자체 호스팅 배포✅ Docker, pip, CLI❌ 사용 불가❌ 사용 불가❌ 사용 불가
기업용 API 액세스✅ REST API + MCP❌ 제한된 API❌ 공개 API 없음❌ API 없음
학술 논문 인덱싱✅ arXiv, PubMed, Semantic Scholar부분 지원❌ 지원하지 않음❌ 지원하지 않음

핵심 기능 상세 설명

1. 다양한 연구 모드

빠른 요약 — 30초에서 3분 만에 인용이 포함된 간결한 답변을 얻으세요. 빠른 사실 확인과 새로운 주제 탐색에 딱 좋습니다.

심층 연구 — 구조화된 발견 내용과 철저한 출처를 갖춘 포괄적인 분석 리포트. 프레젠테이션 준비, 기사 작성 또는 투자 결정을 위해 이상적입니다.

리포트 생성 — 목차와 규범 형식을 갖춘 전문 품질 보고서. PDF 또는 Markdown으로 다운로드 가능. 출판 준비 완료 수준의 산출물입니다.

문서 분석 — 개인 문서를 업로드하고 실시간 웹 소스와 함께 직접 연구하세요. 파일은 암호화되어 기기를 절대 떠나지 않습니다.

2. 20가지 이상의 연구 전략

LDR은 단일 접근 방식에 국한되지 않습니다. 다양한 사용 사례에 최적화된 20가지 이상의 연구 전략을 제공합니다:

  • 빠른 사실 조회 — 최소 토큰으로 빠른 검색
  • 심층 분석 — 복잡한 질문에 대한 다중 라운드 추론
  • 학술 연구 — 학술 논문 검색과 종합에 최적화됨
  • LangGraph 에이전트 전략 — LLM이 무엇을 검색할지, 어떤 특수 엔진을 사용할지, 언제 결과를 종합할지를 동적으로 결정하는 자율 에이전트 모드

LangGraph 전략은 특히 강력합니다: 발견 내용에 따라 검색 엔진을 적응형으로 전환하여 파이프라인 방식보다 훨씬 더 많은 출처를 수집합니다.

3. 광범위한 검색 엔진 지원

LDR은 카테고리별로 10가지 이상의 검색 소스를 통합했습니다:

무료 학술 소스:

  • arXiv — 컴퓨터 과학, 물리학, 수학 분야의 프리프린트 논문
  • PubMed — 생명과학 및 의학 문헌
  • Semantic Scholar — AI 기반 학술 논문 검색
  • Wikipedia — 일반 지식 베이스

무료 일반 소스:

  • SearXNG — 프라이버시 존중 메타검색 엔진
  • GitHub — 코드 저장소 및 개발자 논의
  • Elasticsearch — 기술 문서 검색
  • Wayback Machine — 역사적 웹 페이지 아카이브
  • The Guardian 및 Wikinews — 뉴스 보도

프리미엄 소스 (옵션):

  • Tavily — AI 기반 웹 검색
  • Google — SerpAPI 또는 Programmable Search Engine 통해
  • Brave Search — 프라이버시 중심 일반 검색

4. 개인 지식베이스 구축

각 연구 세션은 가치 있는 출처를 발견합니다. 원클릭으로 암호화된 라이브러리에 바로 저장할 수 있습니다 — arXiv의 학술 논문, PubMed 기사 또는 웹 페이지들. LDR은 텍스트를 추출하고 모든 내용을 색인 및 임베딩하여 검색 가능하게 만듭니다.

시간이 지남에 따라 지식베이스가 축적됩니다: 각 세션은 누적된 연구 레퍼토리와 실시간 웹 소스에서 혜택을 받습니다.

5. MCP 서버 통합

LDR의 가장 강력한 기능 중 하나는 내장된 MCP(Model Context Protocol) 서버로, Claude DesktopClaude Code 같은 AI 도우미가 필요할 때 심층 연구를 수행할 수 있게 합니다. Claude에게 “X 주제에 대해 심층 조사하라"고 말하면 Claude가 LDR의 MCP 서버를 위임하여 포괄적이고 인용이 포함된 보고서를 반환합니다 — Claude 인터페이스를 벗어나지 않아도 됩니다.

6. 고급 기능

  • 분석 대시보드 — 비용, 성능 메트릭 및 사용 패턴 추적
  • 저널 품질 시스템 — 212K+ 색인화된 학술 소스에 대한 자동 평점 시스템, predatory 저널 감지
  • 연구 구독 — 매일, 매주 또는 사용자 정의 일정으로 자동 연구 요약 발송
  • 실시간 업데이트 — WebSocket 지원을 통해 연구 세션 중 실시간 진행률 모니터링
  • 적응형 속도 제한 — 속도 제한된 API의 최적 대기 시간을 학습하는 스마트 재시도 시스템
  • 사용자별 암호화 데이터베이스 — SQLCipher 암호화로 완전한 데이터 격리 보장

단계별 가이드: Local Deep Research 설치 및 실행

옵션 1: Docker Compose (모든 플랫폼 권장)

시작하기 가장 쉬운 방법입니다. 단일 명령어로 필요한 모든 것을 시작합니다:

# Docker Compose 설정 다운로드
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml

# 서비스 시작 (CPU 전용, 모든 플랫폼 작동)
docker compose up -d

약 30초 후 브라우저에서 http://localhost:5000을 엽니다. 이제 연구를 시작할 준비가 되었습니다.

NVIDIA GPU 설정 (Linux):

curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.gpu.override.yml
docker compose -f docker-compose.yml -f docker-compose.gpu.override.yml up -d

옵션 2: pip 설치 (macOS, Windows, Linux)

pip install local-deep-research

세 가지 주요 운영 체제 모두에서 작동합니다. SQLCipher 암호화는 사전 빌드된 wheel을 통해 포함되어 있으므로 컴파일이 필요 없습니다.

옵션 3: 수동 Docker 설정

사용자가 구성 요소를 커스터텀하고 싶은 고급 사용자를 위한 옵션:

# 1단계: Ollama 로컬 실행
docker run -d -p 11434:11434 --name ollama ollama/ollama
docker exec ollama ollama pull gpt-oss:20b

# 2단계: 향상된 검색을 위해 SearXNG 실행
docker run -d -p 8080:8080 --name searxng searxng/searxng

# 3단계: Local Deep Research 실행
docker run -d -p 5000:5000 --network host \
  --name local-deep-research \
  --volume "deep-research:/data" \
  -e LDR_DATA_DIR=/data \
  localdeepresearch/local-deep-research

LLM 설정하기

설치 후 연구를 구동할 모델을 구성하세요. LDR은 다음을 지원합니다:

로컬 모델 (제로 API 비용):

  • Ollamalocalhost:11434에서 네이티브 API 연결. 인기 모델: Llama 3, Mistral, Gemma, DeepSeek, Qwen
  • LM Studio — OpenAI 호환 서버 localhost:1234/v1에 연결
  • llama.cppllama-serverlocalhost:8080/v1에 연결

클라우드 모델 (관리형 추론 선호 시):

  • OpenAI (GPT-4, GPT-3.5)
  • Anthropic (Claude 3 시리즈)
  • Google (Gemini)
  • OpenRouter를 통해 100개 이상 모델

웹 인터페이스의 Settings → LLM에서 선호하는 모델을 선택하세요. 로컬 모델을 사용하면 영구 비용 제로와 완전한 데이터 프라이버시를 얻을 수 있습니다.

Local Deep Research 실전 예제

예제 1: Python API를 통한 빠른 연구

from local_deep_research.api import LDRClient, quick_query

# 한 줄로 간단한 연구
summary = quick_query("username", "password", "양자 컴퓨팅의 최신 돌파구는 무엇인가?")
print(summary)

# 클라이언트를 통한 다중 작업
client = LDRClient()
client.login("username", "password")
result = client.quick_research("2026년 AI가 의약품 개발을 어떻게 변화시키고 있는가?")
print(result["summary"])

예제 2: MCP를 통해 Claude Desktop 통합

Claude Desktop을 Local Deep Research와 함께 사용하도록 구성하세요. 설정 후 Claude에게 다음과 같이 말할 수 있습니다:

“Transformer 모델 최적화 기법에 대해 심층 조사해서 보고서 작성해 줘.”

Claude가 LDR의 MCP 서버를 자동 호출하여 여러 소스 간에 연구를 실행하고, 인용이 포함된 포괄적인 보고서를 돌려줍니다 — Claude 인터페이스를 벗어나지 않습니다.

예제 3: 시장 인텔리전스 자동화

LDR의 구독 기능을 사용하여 정보 업데이트:

  1. “양자 컴퓨팅 발전”, “바이오벤처融资 라운드”, “반도체 공급망” 등의 주제 구독
  2. 자동화된 매일 또는 주간 연구 요약 수신
  3. 출처가 포함된 구조화된 Markdown 보고서 형식으로 결과 전달
  4. 암호화된 지식베이스로 시간 경과에 따른 변화 비교

실제 사용 사례

연구원 및 학자

arXiv, PubMed, Semantic Scholar 간 체계적 문헌 고찰을 수행하면서 연구 주제가 어떤 클라우드 서비스에도 노출되지 않도록 하세요. 어노테이션이 적용되고 검색 가능한 맞춤형 논문 지식베이스를 구축하세요.

기자

민감한 주제를 조사할 때 디지털 발자국 없이 진행하세요. 모든 쿼리가 귀하의 기계에서 로컬로 처리됩니다. 실시간 웹 검색과 로컬 암호화 환경에 보관된 기밀 문서 분석을 결합하세요.

투자자 및 애널리스트

자동화된 연구 구독을 사용하여 시장 동향, 기업 기초 자료, 산업 발전을 모니터링하세요. 저널 품질 시스템은 신뢰할 수 있는 출처만을 읽도록 하고 predatory 출판물을 필터링합니다.

개발자 및 엔지니어

GitHub 저장소, 기술 문서 사이트, Stack Overflow를 통해 기술 트렌드를 계속 추적하세요. 내장 SimpleQA 평가 시스템을 사용해 다양한 LLM 설정에 대한 벤치마크를 실행하세요.

기업 팀

내부 네트워크에 LDR을 배포하고 사용자별 암호화 데이터베이스를 활용하세요. REST API는 기존 워크플로우와의 통합을 가능케 하며, 기업 대시보드는 전체 팀에 대한 사용 분석을 제공합니다.

성능: 유료 서비스와 경쟁하는 벤치마크

GPT-4.1-mini에 SearXNG와 집중 반복 전략을 결합한 구성으로 Local Deep Research는 SimpleQA 벤치마크에서 약 95%의 정확도를 달성합니다 — 사실 기반 질문 응답 능력에 대한 진지한 측정입니다.

더 중요한 것은 적절한 구성으로 로컬 모델도 유사한 성능을 달성할 수 있다는 점입니다. 커뮤니티는 Hugging FaceGitHub에서 벤치마크 데이터셋을 유지하며, 어떤 설정에 투입하기 전에 수백 가지 로컬 및 클라우드 모델 조합에 걸쳐 정확도를 비교할 수 있습니다.

한 커뮤니티 구성원은 단일 NVIDIA RTX 3090에서 Qwen3.6-27B를 사용해 이러한 성과를 달성했으며, 전문적인 AI 연구에 비싼 클라우드 구독이 필요 없다는 것을 입증했습니다.

경쟁사 비교

vs. Perplexity Pro ($20/월)

Perplexity는 속도와 편리함을 제공하지만 모든 것을 Google 인프라로 라우팅합니다. LDR은 동일한 품질을 데이터 주권, 월 요금 제로, 커스터텀 검색 소스 및 LLM支持与 함께 제공합니다.

vs. NotebookLM (무료)

NotebookLM은 Google 생태계 내 문서 grounding에서 뛰어나지만 Google 계정이 필요하고 모든 데이터를 Google로 보냅니다. LDR은 암호화된 스토리지로 개인 문서를 업로드하고 원하는 LLM 제공자를 선택할 수 있습니다.

vs. OpenAI Deep Research (ChatGPT Ultra $200/월)

OpenAI 솔루션은 강력하지만 대부분의 사용자에게 너무 비쌉니다. LDR은제로 비용으로 유사한 결과를 제공하고 로컬에서 실행되며 훨씬 더 넓은 범위의 모델과 검색 엔진을 지원합니다.

vs. Firecrawl 등의 웹 크롤링 도구

Firecrawl 같은 도구는 대량 웹사이트 콘텐츠 추출에 초점을 맞춥니다. LDR은 단순 크롤링을 넘어: 컨텍스트 이해, 여러 소스 간 발견 종합, 인용 포함 구조화된 연구 출력 생성까지 수행합니다.

오늘 시작하기

  1. 방문하기 github.com/LearningCircuit/local-deep-research
  2. 설치하기 Docker Compose 사용 (curl + docker compose up)
  3. 설정하기 설정에서 선호하는 LLM 선택
  4. 연구 시작하기 — 어떤 질문이든 입력하고 LDR의 마법을 지켜보세요

Docker Compose로 전체 설정은 5분이 채 걸리지 않습니다. 상세 설정 가이드는 설치 문서를 참조하세요.

보안과 프라이버시

LDR은 보안을 심각하게 생각합니다. 이 프로젝트는 광범위한 보안 스캐닝을 포함합니다:

  • 정적 분석 (CodeQL, Semgrep, DevSkim, Bearer)
  • 의존성 및 시크릿 스캐닝 (OSV-Scanner, npm-audit)
  • 컨테이너 보안 (Dockle, Hadolint, Checkov)
  • 런타임 보안 (OWASP ZAP 스캔, Zizmor 워크플로우 체크)

모든 사용자 데이터베이스는 SQLCipher로 암호화되었습니다. 연구 기록, 저장된 문서 및 지식베이스는 사용자별로 완전히 분리됩니다. 명시적으로 외부 검색 API 키를 구성하지 않는 한 아무것도 기기에서 나가지 않습니다.

결론

Local Deep Research는 우리가 AI 기반 연구 도구와 상호 작용하는 방식을 바꾸는 패러다임 전환입니다. 프라이버시, 커스터마이징, 데이터 소유권을 최우선으로 둠으로써 시장 지배적인 walled-garden AI 서비스들에 매력적인 대안을 제공합니다.

게제출되지 않은 작업을 보호하는 연구자이건, 민감한 주제를 보도하는 기자이건, 친도를 수행하는 투자자이건, 아니면 단순히 디지털 프라이버시를 소중히 여기는 사람이건 — Local Deep Research는 타협 없는 깊은 AI 기반 조사력을 부여합니다.

이 프로젝트는 활발히 유지되고 있고(329번 커밋), 활기찬 커뮤니티를 가지고 있으며, 전 세계 테크 미디어에서 긍정적인 평가를 받고 있습니다. 7,000개 이상의 스타로 꾸준히增长하며, 자신의 AI 경험을 소유하고 싶다고 생각하는 사용자들에게 명확히 호응받고 있습니다.

오늘 시도해 보세요. 당신의 연구는 프라이버시가 deserved합니다.


관련 기사