llm-for-zotero 是一款免费的开源 Zotero 插件,可将大型语言模型直接集成到 PDF 阅读器中。与需要将 PDF 上传到网页端的工具不同,本插件让您无需离开 Zotero 即可与论文对话。它静静地驻留在阅读器侧栏——随时待命的研究助手。

就任意打开的 PDF 提问,回答基于论文内容并附带可点击的引用跳转。
OpenAI、Anthropic、Google Gemini、DeepSeek、本地模型——使用任何您偏好的 LLM。
让 LLM 自主搜索、标记、整理并注释您整个 Zotero 文库。
使用您自己的 API 密钥,数据不会发送到任何第三方平台,隐私完全由您的服务商保障。
下载最新的 .xpi 安装包
前往 Releases 页面 下载最新的 .xpi 文件。
在 Zotero 中安装插件
打开 Zotero → 工具 → 附加组件 → 点击齿轮图标 → 从文件安装附加组件 → 选择 .xpi 文件。
重启 Zotero 重启 Zotero 完成安装。插件会在每次启动时自动检查更新。
打开 首选项 → 切换到 llm-for-zotero 标签页。

插件原生支持以下五种服务商协议:
| 协议 | 说明 | 主要功能 |
|---|---|---|
responses_api |
OpenAI Responses API | 流式输出、工具调用、文件上传、多模态 |
openai_chat_compat |
OpenAI 兼容聊天 API | 流式输出、工具调用、多模态 |
anthropic_messages |
Anthropic Messages API | 流式输出、工具调用、多模态 |
gemini_native |
Google Gemini API | 流式输出、工具调用、多模态 |
codex_responses |
ChatGPT/Codex 认证 | ChatGPT Plus 直连,无需单独 API 密钥 |
| API 地址 | 模型 | 推理等级 | 备注 |
|---|---|---|---|
https://api.openai.com/v1/responses |
gpt-5.4 | default, low, medium, high, xhigh | 支持 PDF 上传 |
https://api.openai.com/v1/responses |
gpt-5.4-pro | medium, high, xhigh | 支持 PDF 上传 |
https://api.deepseek.com/v1 |
deepseek-chat | default | |
https://api.deepseek.com/v1 |
deepseek-reasoner | default | |
https://generativelanguage.googleapis.com |
gemini-3-pro-preview | low, high | |
https://generativelanguage.googleapis.com |
gemini-2.5-flash | medium | |
https://generativelanguage.googleapis.com |
gemini-2.5-pro | default, low, high | |
https://api.moonshot.ai/v1 |
kimi-k2.5 | default |
任何提供 OpenAI 兼容 HTTP API 的模型均可使用,包括通过 Ollama、LM Studio 或 vLLM 本地部署的模型。
您可以配置最多 10 个服务商组,每组包含多个模型,从而:
对于支持的模型,您可以为每次请求设置推理等级:default、low、medium、high 或 xhigh,用于控制模型在回答前的思考深度。
其他可调参数:
| 参数 | 说明 | 默认值 |
|---|---|---|
| Temperature | 控制输出随机性(0 = 确定性,2 = 创意性) | 1.0 |
| 最大输出 Token 数 | 限制模型回复长度 | 2048 |
| 输入 Token 上限 | 限制发送给模型的上下文大小 | 模型默认值 |
| 系统提示词 | 每次请求前置的自定义指令 | — |
首条消息会将整篇论文作为上下文加载,后续问题则通过检索定位相关段落,保持对话快速且精准。
插件支持三种对话模式:
| 模式 | 说明 |
|---|---|
| 论文对话 | 针对当前打开的 PDF 进行对话,上下文来自该论文。 |
| 全局对话 | 覆盖整个文库的对话,不限定于某篇论文。 |
| 笔记对话 | 编辑 Zotero 笔记时进行对话,以笔记内容为上下文。 |

提问时,模型会生成基于论文内容的答案,每条结论均附有引用——点击即可跳转到 PDF 中的原始段落,方便核实答案并快速定位相关章节。

数秒内为任意论文生成简洁摘要。摘要基于完整 PDF 全文生成,您可以自定义提示词,聚焦于研究方法、结果、启示或其他任何方面。

选中 PDF 中任意复杂段落或专业术语,请模型为其解释。您最多可添加 5 条上下文(来自论文或之前的回答)以进一步细化解释。
可选弹窗会自动建议将选中文本添加到对话,不喜欢可在设置中关闭。

截取任意图形、图表或示意图,请模型进行解读。每次最多支持 10 张截图,适合分析复杂的多面板图表或跨章节对比视觉内容。

在不同标签页中打开多篇论文,并排对比。在输入框中输入 / 可引用其他已打开的论文作为额外上下文,单次对话最多可引用 10 篇论文,实现深度跨文献分析。

从本地磁盘上传文档作为额外上下文,支持格式:

一键将任意回答或选中文本直接保存到 Zotero 笔记,与您现有的笔记工作流无缝集成,无需手动复制粘贴。

对话会自动保存到本地并与对应论文关联。您可以:

创建最多 10 个自定义预设,将常用提示词一键触发。内置预设包括:
您可以修改这些预设或添加自定义内容,以适配您的研究工作流。
启用后,LLM 将成为一个自主 Agent,可在您的 Zotero 文库中执行读取、搜索和写入操作。采用人机协作设计——所有写入操作均需您明确审批后方可执行。
| 工具 | 说明 |
|---|---|
query_library |
搜索和列举 Zotero 条目、文集、相关论文及重复项 |
read_library |
读取元数据、笔记、注释、附件及文集详情 |
inspect_pdf |
读取前置内容、搜索页面、提取证据、检查当前阅读器视图 |
search_literature_online |
搜索在线学术资源(Crossref、Semantic Scholar、arXiv、PubMed 等)或获取外部元数据 |
mutate_library |
批量写入操作——元数据编辑、标签管理、文集管理、笔记写入、文献导入 |
undo_last_action |
撤销上一次已审批的写入批次 |
设计理念是少而通用的工具,而非一长串特定任务工具。直接问 Agent 它能做什么——它会告诉您。
Agent 内置以下预设工作流:
| 动作 | 功能说明 |
|---|---|
| 审计文库 | 检查文库的质量与完整性问题 |
| 同步元数据 | 从在线来源同步并更新论文元数据 |
| 整理未归类文献 | 将未归类文献分配到合适的文集 |
| 自动标签 | 自动生成并应用相关标签 |
| 发现相关文献 | 在文库或在线来源中查找相关论文 |
Agent 可以串联多个工具完成复杂任务——例如查找论文、读取元数据、搜索相关文献并撰写摘要笔记。






所有写入操作均通过人机协作确认流程:
undo_last_action 进行撤销。如果您拥有 ChatGPT Plus 订阅,可以使用 Codex 认证免 API 密钥访问 gpt-5.4 等模型。插件通过 Codex CLI 复用您的 ChatGPT 登录凭据。
1. 安装 Codex CLI(一次性操作):
# macOS / Linux(需要 Node.js 18+)
npm install -g @openai/codex
# macOS 替代方案(无需 Node.js)
brew install --cask codex
2. 登录 ChatGPT 账号:
codex login
浏览器窗口将自动打开——使用您的 ChatGPT Plus 账号登录。凭据保存至 ~/.codex/auth.json。
3. 配置插件:
在 Zotero → 首选项 → llm-for-zotero 中:
| 设置项 | 值 |
|---|---|
| 认证模式 | codex auth |
| API 地址 | https://chatgpt.com/backend-api/codex/responses |
| 模型 | 例如 gpt-5.4 |
点击测试连接以验证。

~/.codex/auth.json(或 $CODEX_HOME/auth.json)读取本地凭据。/files 上传流程。是否免费使用?
是的,插件完全免费且开源(AGPL v3)。您只需为调用所选服务商的 API 付费。使用 Codex 认证时,ChatGPT Plus 订阅用户无需单独 API 密钥。
是否支持本地模型?
支持——任何提供 OpenAI 兼容 HTTP API 的模型均可使用,包括通过 Ollama、LM Studio、vLLM 等工具本地部署的模型。在设置中填写本地 API 地址和模型名称即可。
我的数据是否会用于训练模型?
不会。您使用自己的 API 密钥,数据隐私由您所选服务商的条款约束。大多数 API 服务商(如 OpenAI、Anthropic)不会将 API 数据用于模型训练。
能否同时使用多个模型?
可以。配置最多 10 个服务商组,每组包含多个模型,通过模型选择器在对话中随时切换。
上下文检索是如何工作的?
首条消息会加载论文全文作为上下文,后续问题使用混合检索(BM25 + 嵌入向量搜索)并结合多样性优化,定位最相关段落,保持响应快速准确。
如何报告 Bug 或提交功能请求?
请在 GitHub 上 提交 Issue。
欢迎贡献!无论是 Bug 反馈、功能请求还是 Pull Request——欢迎在 GitHub 上提交 Issue 或 PR。
如果本插件对您有帮助,欢迎:
