OpenAI deep research全面开放:如何更好的用它进行文献综述?(深度使用经验分享)

文献综述对科研人来说,一直是非常耗时耗力的工作,各大大模型也在尝试给出解决方案。           

昨天OpenAI对plus用户也开放了deep research功能,每月10次。

图片

娜姐深度使用deep research已经一个月了,之前也写过推文,介绍它和Gemini的深度研究的异同:

OpenAI deep researerch深度研究功能:200美金一个月值得吗?

后来还帮几位不同领域的学员撰写过标书的立项依据部分,并根据同学们的反馈多方测试deep research的使用边界,优缺点。           

本文将深入剖析 Deep Research 在文献综述中的优势与局限,并分享如何好deep research的tips。

           

首先,来说一下它的优点:

1 报告全面深入。

之前娜姐那篇推文也对比过,针对比较复杂的问题,比如A通过B作用于C(中药基于铁死亡途径防治骨性关节炎进展),Gemini就不行了,总结的报告并不是通过铁死亡途径防治骨性关节炎的中药成分,而OpenAI的deep research的报告更加精准全面。           

2 文献来源丰富且真实可信。

在deep research干活的时候,页面右侧你可以看到它的多智能体运行过程:

图片

一般一份报告会提供20-30条文献来源。都是正确、精准的文献。

把deep research用出最佳效果的tips:

1 提示词技巧:

因为deep research是一个多agent的智能体,它可以自主进行问题拆解、检索、判断信息、引用信息、汇总信息、继续下一步直到完成任务。   

所以,我们不需要给deep research规定语言风格、任务执行的步骤等;

但是我们需要告诉它:           

1.1 任务类型:比如论文的前言写作、基金申请书写作等等。

1.2框架设定。把详细的框架告诉它,得到的报告会更完善,更符合你的要求。

比如research论文的文献综述,包括关于某一主题的“大背景-小背景-research gap-你的研究主题”,虽然在你提出研究主题后,Deep Research会跟你对齐需求:

图片

但如果你能自行规划好框架,deep research生成的报告内容会更符合你的要求。           

如果是写标书的立项依据部分,可以把我们标书课程提示词中,关于框架的要求提取出来,放在提示词里面,效果不错。           

1.3 特殊要求。比如引用某一个政府报告、WHO的数据等,需要强调一下。    

总结一下,就是任务-框架-特殊要求就够了。           

至于是否需要强调检索英文来源文献,学术类的它基本上都是检索英文来源的文献。包括中药研究,大部分都是英文来源,我觉得不需要强调,deep research能自行分析判断;           

还有就是是否要规定字数,我觉得也没必要。Deep research帮我写的文献综述有8000字的,有2万字的,我没有规定字数,它会自主根据内容来规划。           

2 用好附件上传功能。

deep research是可以调用附件内容,生成报告的。比如你有一些官方数据,或者一些针对某关键词的最新文献进展。可以以附件形式长传,并告诉deep research要参考附件内容生成报告。这样生成的报告数据部分会更加详实具体,如果附件是关于某领域文献的最新进展,那么生成的报告关于这部分描述也会更加具体。

3 巧用上下文对话功能。

和Gemini的deep research一次性生成报告功能不同,OpenAI的深度研究是可以继续对话的,并且无论你第一次报告生成的内容有多长,都不影响它后续输出。

那么,针对它首次报告中某些内容缺失,或者你想拓展深挖的部分,可以继续对话,deep research可以关联上文的几万字内容,帮你继续完善其中的某一部分。这个还是很好用的。

4 巧用表格生成功能。

deep research有总结表格和引用图片的功能。比如涉及某一功能的所有基因的来源、位置、参与的分子通路等等的对比,在生成文字报告的同时,还可以让它总结成表格,更直观方便。  

Deep research有哪些不足之处?          

1 文献引用数量有限。如果是要发表的综述,20-30篇还是不够的。

2单篇文献过度引用。比如你经常会看到,在某一段落里,deep research会整段全引用一两篇文献。它的agent在找到支撑文献之后,似乎马上就转入下一项议题的搜寻工作,而不会穷尽某一个论点的文献搜索过程。        

3 文献引用来源不全。纵使deep research已经做的相对不错,面对几亿篇的海量文献,它还是会有观点、引用不全的问题。            

归根结底,AI只是你的辅助工具,人永远是主导地位。           

如果你对该领域了解不够。对AI生成的几万字报告,无法判断好坏。那这份报告就只能作为一个初步参考。      

所以,娜姐总结出来用好AI工具进行文献综述的正确方法--永远不是给个主题,让AI直接生成报告。而是把AI加入我们进行文献综述的三步工作流,提高效率才是正解

1 海量文献筛选:要想全面的了解最新前沿进展,第一步是用关键词到专业文献数据库web of science/Pubmed/Scopus中检索,得到一个有关该关键词的文献列表excel。这一步,是确保我们没有漏掉任何一篇最新的文献、重要的文献。           

比如这一步我下载了1000篇相关文献,那我们可以借助AI来快速的进行标题、摘要的翻译、摘要总结、影响因子和分区匹配,甚至所有文献的汇总分类,出具汇总报告。让我们对这一批文献进行快速筛选和全面了解,进而筛选出需要全文精读和可能会引用到的文献。

2 文献精读。比如从第一步1000篇文献中筛选出了200篇需要全文精读的目标文献。这一步,我们也可以借助AI工具提高效率。根据方法、结果、主要结论、创新点、局限性等等,用AI工具快速提炼每篇文献的要点。之前娜姐录过视频,用飞书多维表格结合deepseek、Kimi来完成这一步。后来学员反馈,飞书多维表格负载量大反应故障。那我们可以和第一步一样,自主接入大模型来进行分析。  

3 文献综述撰写。这时候,你对该领域的主要观点、前沿进展都有了全面了解。可以让AI生成一个初步报告,你再进行针对性完善。或者你上传要进行文献综述的全部pdf,让AI agent来帮你提炼观点、组织语言,达到一个事半功倍的效果。           

总的来说,娜姐的感受是,要让AI从几亿篇海量文献中,自主筛选出所有和你的议题相关的文献,还要从文献中提炼对应的支撑论据。AI做不到,往后也很难做到。原因有两个

1 付费墙的存在。你用过那些文献综述的agent就会发现,有些文献来源全部是MDPI或者其他开源期刊。因为只有这些期刊能获取全文。OpenAI的deep research虽然会读取pubmed的文章摘要,但是,摘要中信息还是不全面。

2 几亿篇数据量太大,AI还没有这么强大完善的信息筛选能力。

总结:AI在科研中的作用,不是完全替代,而是辅助提效。

今天就介绍到这里。

如果觉得有用,欢迎在看、转发和点赞!娜姐继续输出有用的AI辅助科研写作、绘图相关技巧和知识。