llm-for-zotero 是一款免费的开源 Zotero 插件,可将大型语言模型直接集成到 PDF 阅读器中。与需要将 PDF 上传到网页端的工具不同,本插件让您无需离开 Zotero 即可与论文对话。它静静地驻留在阅读器侧栏——随时待命的研究助手。

就任意打开的 PDF 提问,回答基于论文内容并附带可点击的引用跳转。
OpenAI、Anthropic、Google Gemini、DeepSeek、本地模型——使用任何您偏好的 LLM。
自主管理文库、执行终端命令、访问本地文件的智能代理——所有变更均需您审批。
使用高保真 PDF 解析,完整保留表格、公式、图表和复杂版式。
gpt-5.4 等 Codex 模型,无需单独的 API 密钥。llm-for-zotero。下载最新的 .xpi 安装包
前往 Releases 页面 下载最新的 .xpi 文件。
在 Zotero 中安装插件
打开 Zotero → 工具 → 附加组件 → 点击齿轮图标 → 从文件安装附加组件 → 选择 .xpi 文件。
重启 Zotero 重启 Zotero 完成安装。插件会在每次启动时自动检查更新。
打开 首选项 → 切换到 llm-for-zotero 标签页。

插件原生支持以下五种服务商协议:
| 协议 | 说明 | 主要功能 |
|---|---|---|
responses_api |
OpenAI Responses API | 流式输出、工具调用、文件上传、多模态 |
openai_chat_compat |
OpenAI 兼容聊天 API | 流式输出、工具调用、多模态 |
anthropic_messages |
Anthropic Messages API | 流式输出、工具调用、多模态 |
gemini_native |
Google Gemini API | 流式输出、工具调用、多模态 |
codex_responses |
ChatGPT/Codex 认证 | ChatGPT Plus 直连,无需单独 API 密钥 |
| API 地址 | 模型 | 推理等级 | 备注 |
|---|---|---|---|
https://api.openai.com/v1/responses |
gpt-5.4 | default, low, medium, high, xhigh | 支持 PDF 上传 |
https://api.openai.com/v1/responses |
gpt-5.4-pro | medium, high, xhigh | 支持 PDF 上传 |
https://api.deepseek.com/v1 |
deepseek-chat | default | |
https://api.deepseek.com/v1 |
deepseek-reasoner | default | |
https://generativelanguage.googleapis.com |
gemini-3-pro-preview | low, high | |
https://generativelanguage.googleapis.com |
gemini-2.5-flash | medium | |
https://generativelanguage.googleapis.com |
gemini-2.5-pro | default, low, high | |
https://api.moonshot.ai/v1 |
kimi-k2.5 | default |
任何提供 OpenAI 兼容 HTTP API 的模型均可使用,包括通过 Ollama、LM Studio 或 vLLM 本地部署的模型。
您可以配置最多 10 个服务商组,每组包含多个模型,从而:
对于支持的模型,您可以为每次请求设置推理等级:default、low、medium、high 或 xhigh,用于控制模型在回答前的思考深度。
其他可调参数:
| 参数 | 说明 | 默认值 |
|---|---|---|
| Temperature | 控制输出随机性(0 = 确定性,2 = 创意性) | 1.0 |
| 最大输出 Token 数 | 限制模型回复长度 | 2048 |
| 输入 Token 上限 | 限制发送给模型的上下文大小 | 模型默认值 |
| 系统提示词 | 每次请求前置的自定义指令 | — |
首条消息会将整篇论文作为上下文加载,后续问题则通过检索定位相关段落,保持对话快速且精准。
插件支持三种对话模式:
| 模式 | 说明 |
|---|---|
| 论文对话 | 针对当前打开的 PDF 进行对话,上下文来自该论文。 |
| 全局对话 | 覆盖整个文库的对话,不限定于某篇论文。 |
| 笔记对话 | 编辑 Zotero 笔记时进行对话,以笔记内容为上下文。 |

提问时,模型会生成基于论文内容的答案,每条结论均附有引用——点击即可跳转到 PDF 中的原始段落,方便核实答案并快速定位相关章节。

数秒内为任意论文生成简洁摘要。摘要基于完整 PDF 全文生成,您可以自定义提示词,聚焦于研究方法、结果、启示或其他任何方面。

选中 PDF 中任意复杂段落或专业术语,请模型为其解释。您最多可添加 5 条上下文(来自论文或之前的回答)以进一步细化解释。
可选弹窗会自动建议将选中文本添加到对话,不喜欢可在设置中关闭。

截取任意图形、图表或示意图,请模型进行解读。每次最多支持 10 张截图,适合分析复杂的多面板图表或跨章节对比视觉内容。

在不同标签页中打开多篇论文,并排对比。在输入框中输入 / 可引用其他已打开的论文作为额外上下文,单次对话最多可引用 10 篇论文,实现深度跨文献分析。

从本地磁盘上传文档作为额外上下文,支持格式:

一键将任意回答或选中文本直接保存到 Zotero 笔记,与您现有的笔记工作流无缝集成,无需手动复制粘贴。

对话会自动保存到本地并与对应论文关联。您可以:

创建最多 10 个自定义预设,将常用提示词一键触发。内置预设包括:
您可以修改这些预设或添加自定义内容,以适配您的研究工作流。
启用后,LLM 将成为一个自主 Agent,不仅可在 Zotero 文库中执行读取、搜索和写入操作,还能执行终端命令并访问本地文件——如同 Zotero 内置的编程 Agent。采用人机协作设计——所有写入操作均需您明确审批后方可执行。
这些工具让 Agent 浏览您的文库和在线学术资源,不会修改任何内容。
| 工具 | 说明 |
|---|---|
query_library |
搜索和列举 Zotero 条目、文集、相关论文及重复项。支持多种查询模式(列表、搜索、重复项、未归档、无标签),可按文集、PDF 状态和标签筛选 |
read_library |
读取结构化条目状态:元数据、笔记、注释、附件(所有类型)及文集归属 |
inspect_pdf |
高级 PDF 操作:读取前置内容、搜索页面、提取证据、渲染页面、捕获当前阅读器视图、读取特定片段或完整文档 |
search_literature_online |
搜索在线学术资源(OpenAlex、arXiv、EuropePMC)或获取外部元数据(CrossRef、Semantic Scholar)。模式:推荐、引用、被引、搜索、元数据 |
所有写入工具均需人工确认后方可生效。
| 工具 | 说明 |
|---|---|
apply_tags |
为一篇或多篇论文添加或移除标签,支持批量操作 |
update_metadata |
更新条目的元数据字段(标题、作者、DOI、期刊、摘要等) |
move_to_collection |
在 Zotero 文集之间移动条目 |
manage_collections |
创建或删除文集(文件夹),支持嵌套 |
edit_current_note |
创建或编辑 Zotero 笔记,支持导入本地图片 |
import_identifiers |
通过 DOI、arXiv ID 或其他标识符导入论文——Zotero 自动获取元数据 |
import_local_files |
从文件系统导入本地文件(PDF、文档等)到 Zotero |
manage_attachments |
添加或移除条目上的附件(PDF、补充材料等) |
merge_items |
合并重复条目:保留主条目,将所有子项从重复项移入,然后将重复项移至回收站 |
trash_items |
将条目移至回收站 |
undo_last_action |
撤销上一次已审批的写入批次 |
Agent 包含两个系统级工具,使其成为可在 Zotero 内运行脚本和处理数据的编程 Agent。
| 工具 | 说明 |
|---|---|
run_command |
在本地机器上执行 Shell 命令(macOS 使用 zsh,Linux 使用 bash,Windows 使用 cmd.exe)。支持管道、重定向、通配符及所有 Shell 特性。每条命令超时限制 300 秒 |
file_io |
读写本地文件系统上的文件。支持 UTF-8 及其他编码 |
典型使用场景:
pandoc、ffmpeg、pdftotext)作为 Agent 工作流的一部分。Agent 为常见文库管理工作流提供高级动作,自动串联多个工具。
| 动作 | 功能说明 |
|---|---|
| 文库审计 | 扫描文库(或文集)中元数据不完整的条目——缺少摘要、DOI、标签或 PDF 附件。可选将报告保存为 Zotero 笔记 |
| 自动标签 | 查找所有无标签论文,打开批量标签分配对话框供您审阅 |
| 发现相关文献 | 通过推荐、参考文献或被引关系,从学术源中查找种子论文的相关论文 |
| 同步元数据 | 从外部源(CrossRef、Semantic Scholar)获取元数据并批量应用更新 |
| 整理未归档条目 | 查找未归档条目,通过交互式审阅流程将其归入文集 |
插件运行内置的 Model Context Protocol (MCP) 服务器,允许外部 AI Agent 和工具以编程方式与您的 Zotero 文库交互。
http://localhost:23119/llm-for-zotero/mcpinitialize、tools/list、tools/call这意味着您可以将任何兼容 MCP 的 AI Agent(如 Claude Desktop、Cursor、自定义 Agent)连接到您的 Zotero 文库,使用上述所有工具。
Agent 可以串联多个工具完成复杂任务——例如查找论文、读取元数据、搜索相关文献并撰写摘要笔记。






所有写入操作均通过人机协作确认流程:
undo_last_action 进行撤销。WebChat 模式通过浏览器扩展将您的问题直接发送到 chatgpt.com——无需 API 密钥。查询从 Zotero 转发到 ChatGPT 网页界面,回复实时流式传回插件。
1. 下载浏览器扩展:
前往 github.com/yilewang/sync-for-zotero → Releases,下载最新的 sync-for-zotero-extension.zip,解压到电脑上的文件夹。
2. 安装扩展(侧载):
chrome://extensions3. 配置插件:
打开 Zotero → 首选项 → llm-for-zotero:
| 设置项 | 值 |
|---|---|
| 认证模式 | WebChat |
| 模型 | (自动设为 chatgpt.com) |
4. 开始对话:
在浏览器中打开一个 ChatGPT 标签页并保持打开。在 Zotero 中,插件面板会显示 “chatgpt.com” 指示器及连接状态点(绿色 = 已连接,红色 = 未检测到)。输入问题并发送即可。
/)和引用选择器(@)。如果您拥有 ChatGPT Plus 订阅,可以使用 Codex 认证免 API 密钥访问 gpt-5.4 等模型。插件通过 Codex CLI 复用您的 ChatGPT 登录凭据。
1. 安装 Codex CLI(一次性操作):
# macOS / Linux(需要 Node.js 18+)
npm install -g @openai/codex
# macOS 替代方案(无需 Node.js)
brew install --cask codex
2. 登录 ChatGPT 账号:
codex login
浏览器窗口将自动打开——使用您的 ChatGPT Plus 账号登录。凭据保存至 ~/.codex/auth.json。
3. 配置插件:
在 Zotero → 首选项 → llm-for-zotero 中:
| 设置项 | 值 |
|---|---|
| 认证模式 | codex auth |
| API 地址 | https://chatgpt.com/backend-api/codex/responses |
| 模型 | 例如 gpt-5.4 |
点击测试连接以验证。

~/.codex/auth.json(或 $CODEX_HOME/auth.json)读取本地凭据。/files 上传流程。MinerU 是一款先进的 PDF 解析引擎,可从 PDF 中提取高保真 Markdown,同时保留表格、公式、图表和复杂版式——这些内容在标准文本提取中往往会被破坏。

启用后,插件会将 PDF 发送到 MinerU API 进行解析并在本地缓存结果。此后与该论文的所有交互都将使用 MinerU 解析的内容,为模型提供更丰富、更准确的上下文。
插件提供共享社区代理,开箱即用无需 API 密钥,但共享配额有限。如需更大用量:
提供个人 API 密钥后,插件将直接调用 https://mineru.net/api/v4。未提供密钥时,使用社区代理。
是否免费使用?
是的,插件完全免费且开源(AGPL v3)。您只需为调用所选服务商的 API 付费。使用 Codex 认证时,ChatGPT Plus 订阅用户无需单独 API 密钥。
是否支持本地模型?
支持——任何提供 OpenAI 兼容 HTTP API 的模型均可使用,包括通过 Ollama、LM Studio、vLLM 等工具本地部署的模型。在设置中填写本地 API 地址和模型名称即可。
我的数据是否会用于训练模型?
不会。您使用自己的 API 密钥,数据隐私由您所选服务商的条款约束。大多数 API 服务商(如 OpenAI、Anthropic)不会将 API 数据用于模型训练。
能否同时使用多个模型?
可以。配置最多 10 个服务商组,每组包含多个模型,通过模型选择器在对话中随时切换。
上下文检索是如何工作的?
首条消息会加载论文全文作为上下文,后续问题使用混合检索(BM25 + 嵌入向量搜索)并结合多样性优化,定位最相关段落,保持响应快速准确。
如何报告 Bug 或提交功能请求?
请在 GitHub 上 提交 Issue。
欢迎贡献!无论是 Bug 反馈、功能请求还是 Pull Request——欢迎在 GitHub 上提交 Issue 或 PR。
如果本插件对您有帮助,欢迎:
