指南 | OpenAI API对PDF进行总结提炼

前言

本文将针对信息过载阅读搜索难的问题,展示如何利用OpenAI API高效地自动总结PDF,从而提高阅读效率和节省时间。包含详尽的操作教程、实际案例及最佳实践,旨在确保准确且高效地进行文档摘要。另外,本文还将深入探讨运用AI技术进行PDF总结的优势,如提高生产力、节省时间等,同时分析了在实际应用中可能遇到的局限性和挑战。

image.png

通过本文,可帮助您简化阅读过程,提高处理大量信息的能力,从而提升工作效率和学术表现,更好地应对快节奏世界中的信息挑战,充分利用AI技术为您的阅读和学习带来更多便利。

环境准备

在开始前,我们要准备好开发开发环境,首先你要准备好Openai的访问密钥,提供文本总结的能力。\ 其次你要准备python语言的开发环境,并且安装Fitz库,A该库将提供读取、写入和操作PDF文件的能力。

pip pip install PyMuPDF openai

然后将必要的库引入到Python文件中。

python import fitz import openai

读取pdf内容

```python import fitz import openai

context = ""

with fitz.open(‘filename.pdf’) as pdffile: numpages = pdffile.pagecount

for pagenum in range(numpages): page = pdffile[pagenum] pagetext = page.gettext() context += page_text ```

扫描二维码关注公众号,回复: 15327197 查看本文章
  1. 创建一个名为Context的变量,将其设置为空字符串。此变量将用于存储整个PDF文档的文本内容。
  2. 使用Fitz库的fitz.open()函数打开PDF文件。此函数将PDF文件名作为参数。
  3. 使用pdf_file对象的page_count属性获取PDF文件中的总页数。这将用于循环遍历PDF文件中的每一页。
  4. 使用for循环遍历PDF文件中的每一页。循环从0开始,到num_pages - 1结束,因为Python的数组索引从0开始。
  5. 在循环内部,使用pdf_file对象获取当前页面。page_num变量用于索引PDF文件中的页面。
  6. 使用页面对象的get_text()方法提取当前页面的文本内容。此方法返回包含页面文本的字符串。
  7. 使用+=运算符将当前页面的文本追加到Context变量。这将文本添加到Context字符串的末尾。
  8. 在循环完成后,Context变量将包含整个PDF文档的文本内容。

分解pdf成段落

下一步是将pdf的内容输入 split_text函数,该函数负责将文本划分为每段包含5000个字符的段落。

```python

def splittext(text, chunksize=5000): “”” Splits the given text into chunks of approximately the specified chunk size.

Args: text (str): The text to split.

chunk_size (int): The desired size of each chunk (in characters).

Returns: List[str]: A list of chunks, each of approximately the specified chunk size. “””

chunks = [] currentchunk = StringIO() currentsize = 0 sentences = senttokenize(text) for sentence in sentences: sentencesize = len(sentence) if sentencesize > chunksize: while sentencesize > chunksize: chunk = sentence[:chunksize] chunks.append(chunk) sentence = sentence[chunksize:] sentencesize -= chunksize currentchunk = StringIO() currentsize = 0 if currentsize + sentencesize < chunksize: currentchunk.write(sentence) currentsize += sentencesize else: chunks.append(currentchunk.getvalue()) currentchunk = StringIO() currentchunk.write(sentence) currentsize = sentencesize if currentchunk: chunks.append(current_chunk.getvalue()) return chunks ```

  1. 该代码定义了一个名为 split_text 的 Python 函数,用于将较长的文本分割成大小相近的较小块。
  2. 函数使用 sent_tokenize 函数将文本分割成句子,然后遍历每个句子以创建块。
  3. 每个块的大小可以在函数参数中指定,默认大小为5000个字符。
  4. 该函数返回一个块列表,每个块的大小约为指定的大小。 这个函数可以用于对较长的 PDF 文本进行摘要处理,将它们分解成容易处理的较小块。

总的来说,split_text函数将冗长的PDF文本分解成可管理的段落,以便进行归纳总结,使其更容易处理和提取关键信息。

用OpenAI模型归纳总结文本段落

```python def gpt3completion(prompt, engine=’text-davinci-003', temp=0.5, topp=0.3, tokens=1000):

prompt = prompt.encode(encoding=’ASCII’,errors=’ignore’).decode() try: response = openai.Completion.create( engine=engine, prompt=prompt, temperature=temp, topp=topp, max_tokens=tokens ) return response.choices[0].text.strip() except Exception as oops: return “GPT-3 error: %s” % oops ```

  1. def gpt3_completion(prompt, engine='text-davinci-003', temp=0.5, top_p=0.3, tokens=1000)这个函数接受一个提示字符串和四个可选参数:engine,temp,top_p 和 tokens。
  2. promptprompt.encode(encoding='ASCII',errors='ignore').decode() 将提示字符串编码为 ASCII 格式,并在编码过程中忽略可能出现的任何错误,然后将其解码回字符串。 3.try:except Exception as oops:用于处理在执行 try 块内的代码时可能出现的任何错误。
  3. response = openai.Completion.create(...)向 OpenAI GPT-3 API发送请求,根据提供的prompt、engine、temp、top_p 和 tokens 参数生成文本补全。响应结果存储在 response 变量中。
  4. return response.choices[0].text.strip() 从响应对象中提取生成的文本,并删除任何前导或尾随的空白字符。
  5. 如果在执行 try 块期间发生错误,函数将返回一个包含错误信息的错误消息。

总结

总的来说,本文实现的能力极大地简化阅读过程。通过使用 Fitz 库和 OpenAI 的 GPT-3 语言模型我们可以轻松地从 PDF 文件中提取并总结关键信息。另外,本文使用的是GPT-3模型,如果使用GPT-4模型那效果更佳,特别是2023年6.13以后的模型版本更出彩。

image.png

当然,本文只是为实现pdf的总结提炼提供一个思路,如果是工程级别,其中还要考虑到处理文件页数足够的多怎么办,如何索引目录以及内容,如何避免模型胡诌,如何提供隐私加密等等。其中可能要用到Embedding,提示工程,加密等技术,可参照上图的大体流程,我们放在后面的文章讨论。

猜你喜欢

转载自blog.csdn.net/DynmicResource/article/details/131225569
今日推荐