文献综述对科研人来说,一直是非常耗时耗力的工作,各大大模型也在尝试给出解决方案。
昨天OpenAI对plus用户也开放了deep research功能,每月10次。
娜姐深度使用deep research已经一个月了,之前也写过推文,介绍它和Gemini的深度研究的异同:
OpenAI deep researerch深度研究功能:200美金一个月值得吗?
后来还帮几位不同领域的学员撰写过标书的立项依据部分,并根据同学们的反馈多方测试deep research的使用边界,优缺点。
本文将深入剖析 Deep Research 在文献综述中的优势与局限,并分享如何好deep research的tips。
首先,来说一下它的优点:
1 报告全面深入。
之前娜姐那篇推文也对比过,针对比较复杂的问题,比如A通过B作用于C(中药基于铁死亡途径防治骨性关节炎进展),Gemini就不行了,总结的报告并不是通过铁死亡途径防治骨性关节炎的中药成分,而OpenAI的deep research的报告更加精准全面。
2 文献来源丰富且真实可信。
在deep research干活的时候,页面右侧你可以看到它的多智能体运行过程:
一般一份报告会提供20-30条文献来源。都是正确、精准的文献。
把deep research用出最佳效果的tips:
1 提示词技巧:
因为deep research是一个多agent的智能体,它可以自主进行问题拆解、检索、判断信息、引用信息、汇总信息、继续下一步直到完成任务。
所以,我们不需要给deep research规定语言风格、任务执行的步骤等;
但是我们需要告诉它:
1.1 任务类型:比如论文的前言写作、基金申请书写作等等。
1.2框架设定。把详细的框架告诉它,得到的报告会更完善,更符合你的要求。
比如research论文的文献综述,包括关于某一主题的“大背景-小背景-research gap-你的研究主题”,虽然在你提出研究主题后,Deep Research会跟你对齐需求:
但如果你能自行规划好框架,deep research生成的报告内容会更符合你的要求。
如果是写标书的立项依据部分,可以把我们标书课程提示词中,关于框架的要求提取出来,放在提示词里面,效果不错。
1.3 特殊要求。比如引用某一个政府报告、WHO的数据等,需要强调一下。
总结一下,就是任务-框架-特殊要求就够了。
至于是否需要强调检索英文来源文献,学术类的它基本上都是检索英文来源的文献。包括中药研究,大部分都是英文来源,我觉得不需要强调,deep research能自行分析判断;
还有就是是否要规定字数,我觉得也没必要。Deep research帮我写的文献综述有8000字的,有2万字的,我没有规定字数,它会自主根据内容来规划。
2 用好附件上传功能。
deep research是可以调用附件内容,生成报告的。比如你有一些官方数据,或者一些针对某关键词的最新文献进展。可以以附件形式长传,并告诉deep research要参考附件内容生成报告。这样生成的报告数据部分会更加详实具体,如果附件是关于某领域文献的最新进展,那么生成的报告关于这部分描述也会更加具体。
3 巧用上下文对话功能。
和Gemini的deep research一次性生成报告功能不同,OpenAI的深度研究是可以继续对话的,并且无论你第一次报告生成的内容有多长,都不影响它后续输出。
那么,针对它首次报告中某些内容缺失,或者你想拓展深挖的部分,可以继续对话,deep research可以关联上文的几万字内容,帮你继续完善其中的某一部分。这个还是很好用的。
4 巧用表格生成功能。
deep research有总结表格和引用图片的功能。比如涉及某一功能的所有基因的来源、位置、参与的分子通路等等的对比,在生成文字报告的同时,还可以让它总结成表格,更直观方便。
Deep research有哪些不足之处?
1 文献引用数量有限。如果是要发表的综述,20-30篇还是不够的。
2单篇文献过度引用。比如你经常会看到,在某一段落里,deep research会整段全引用一两篇文献。它的agent在找到支撑文献之后,似乎马上就转入下一项议题的搜寻工作,而不会穷尽某一个论点的文献搜索过程。
3 文献引用来源不全。纵使deep research已经做的相对不错,面对几亿篇的海量文献,它还是会有观点、引用不全的问题。
归根结底,AI只是你的辅助工具,人永远是主导地位。
如果你对该领域了解不够。对AI生成的几万字报告,无法判断好坏。那这份报告就只能作为一个初步参考。
所以,娜姐总结出来用好AI工具进行文献综述的正确方法--永远不是给个主题,让AI直接生成报告。而是把AI加入我们进行文献综述的三步工作流,提高效率才是正解:
1 海量文献筛选:要想全面的了解最新前沿进展,第一步是用关键词到专业文献数据库web of science/Pubmed/Scopus中检索,得到一个有关该关键词的文献列表excel。这一步,是确保我们没有漏掉任何一篇最新的文献、重要的文献。
比如这一步我下载了1000篇相关文献,那我们可以借助AI来快速的进行标题、摘要的翻译、摘要总结、影响因子和分区匹配,甚至所有文献的汇总分类,出具汇总报告。让我们对这一批文献进行快速筛选和全面了解,进而筛选出需要全文精读和可能会引用到的文献。
2 文献精读。比如从第一步1000篇文献中筛选出了200篇需要全文精读的目标文献。这一步,我们也可以借助AI工具提高效率。根据方法、结果、主要结论、创新点、局限性等等,用AI工具快速提炼每篇文献的要点。之前娜姐录过视频,用飞书多维表格结合deepseek、Kimi来完成这一步。后来学员反馈,飞书多维表格负载量大反应故障。那我们可以和第一步一样,自主接入大模型来进行分析。
3 文献综述撰写。这时候,你对该领域的主要观点、前沿进展都有了全面了解。可以让AI生成一个初步报告,你再进行针对性完善。或者你上传要进行文献综述的全部pdf,让AI agent来帮你提炼观点、组织语言,达到一个事半功倍的效果。
总的来说,娜姐的感受是,要让AI从几亿篇海量文献中,自主筛选出所有和你的议题相关的文献,还要从文献中提炼对应的支撑论据。AI做不到,往后也很难做到。原因有两个:
1 付费墙的存在。你用过那些文献综述的agent就会发现,有些文献来源全部是MDPI或者其他开源期刊。因为只有这些期刊能获取全文。OpenAI的deep research虽然会读取pubmed的文章摘要,但是,摘要中信息还是不全面。
2 几亿篇数据量太大,AI还没有这么强大完善的信息筛选能力。
总结:AI在科研中的作用,不是完全替代,而是辅助提效。
今天就介绍到这里。
如果觉得有用,欢迎在看、转发和点赞!娜姐继续输出有用的AI辅助科研写作、绘图相关技巧和知识。