商城首页欢迎来到中国正版软件门户

您的位置:首页 >python使用pdfplumber库一键提取pdf中的所有超链接

python使用pdfplumber库一键提取pdf中的所有超链接

  发布于2026-05-03 阅读(0)

扫一扫,手机访问

前言

在PDF的世界里,超链接有一个更专业的名字——“链接注释”。

根据PDF规范,它本质上是一种特殊的注释类型。其核心结构定义了用户可以点击的区域、指定了要跳转的目标地址(可能是网页URI,也可能是文档内的某个页面),并且可以设置一些视觉样式。正是这种设计,让PDF阅读器能够识别并响应我们的点击操作。

今天,我们就来聊聊如何用Python里的一个利器——pdfplumber库,把这些“藏”在PDF里的超链接给精准地“挖”出来。

pdfplumber这个库,专攻PDF文档解析。无论是文档的作者、创建时间这些基本信息,还是更复杂的表格、文本、图片,乃至我们今天的主角——超链接,它基本都能搞定,足以应对大多数常规的内容提取需求。

安装起来也毫不费力,一条pip命令就能搞定:

pip install pdfplumber

提取 pdf 中超链接详解

提取超链接,pdfplumber已经为我们准备好了现成的工具。每个页面对象都有一个.hyperlinks属性,调用它,就能直接获取当前页面上所有的超链接信息,返回的结果是一个字典列表,非常清晰。

来看一段基础代码。我们用pdfplumber打开一个名为“test.pdf”的文件,然后遍历每一页,通过.hyperlinks属性获取链接:

import pdfplumber


with pdfplumber.open(r'./data/test.pdf') as pdf_info:
    for page in pdf_info.pages:
        links = page.hyperlinks
    print(links)

运行之后,你会得到一个结构化的列表,里面包含了链接所在的页码、目标URI地址等关键信息。效果类似下图所示:

python使用pdfplumber库一键提取pdf中的所有超链接

接下来,我们只需要从这个字典列表里,把我们需要的信息(比如URI)提取出来就行了。

下面是一个完整的函数示例。你只需要把文件路径换成你自己的PDF文件完整路径,运行后就能得到文档里所有页面的所有超链接。

import pdfplumber


def get_links(file_path):
    res_links = []
    with pdfplumber.open(file_path) as pdf_info:
        page_number = 0
        for page in pdf_info.pages:
            page_number += 1
            links = page.hyperlinks
            if links:
                for link in links:
                    res_link = link.get('uri')
                    res_links.append(res_link)
                print(f'第{page_number}页,共有{len(links)}个超链接!')
            else:
                print(f'第{page_number}页,不存在超链接!')
    return res_links


if __name__=="__main__":
    # 文件路径为 pdf 完整路径
    res_links = get_links('data/FCC_all.pdf')
    print(res_links)

当然,这只是提取PDF超链接的其中一种有效方法,供各位参考。

方法补充

基本用法:提取所有超链接

核心逻辑其实非常直观:打开PDF,循环遍历每一页,然后从页面的hyperlinks属性里取出uri(也就是目标网址)。

import pdfplumber
def extract_links(pdf_path):
    all_links = []
    with pdfplumber.open(pdf_path) as pdf:
        for page in pdf.pages:
            page_links = page.hyperlinks
            if page_links:
                for link in page_links:
                    # 每个 link 是一个字典,'uri' 键存储了目标网址
                    uri = link.get('uri')
                    if uri:
                        all_links.append(uri)
    return all_links
if __name__ == "__main__":
    links = extract_links("你的文件.pdf")
    for link in links:
        print(link)

如果你想更清楚地知道每个链接出自哪一页,可以在遍历时加上页码信息:

for i, page in enumerate(pdf.pages):
    links = page.hyperlinks
    if links:
        print(f"第 {i+1} 页 有 {len(links)} 个链接")
        for link in links:
            print(f"  - {link.get('uri')}")
    else:
        print(f"第 {i+1} 页 没有链接")

高级用法:灵活处理

处理其他类型的链接

需要留意的是,hyperlinks返回的字典里,不一定只有uri(网页链接)。它还可能包含指向PDF文档内部其他页面的链接(键为page),或者指向文档内某个命名目标的链接(键为nameddest)。区分处理它们能让你的脚本更健壮。

if 'uri' in link:
    print(f"网页链接: {link['uri']}")
elif 'page' in link:
    print(f"内部链接: 第 {link['page']} 页")
elif 'nameddest' in link:
    print(f"命名目标: {link['nameddest']}")

提取链接的链接文本(高级技巧)

有时候,我们不仅想知道链接指向哪里,还想知道这个链接在PDF里显示成什么文字(比如“点击这里”或“了解更多”)。pdfplumber本身没有直接提供这个功能,但我们可以通过一个“曲线救国”的方式来实现:利用页面的chars属性(它包含了页面上每个字符的详细信息,包括坐标)。基本思路是,先拿到链接的矩形区域坐标(x0, y0, x1, y1),然后筛选出所有落在这个区域内的字符,再把它们组合起来,就得到了链接文本。这涉及到一些坐标计算,但对于处理复杂文档来说,是个非常实用的技巧。

处理加密PDF

如果遇到加密的PDF文件也不用慌。pdfplumber.open()方法贴心地提供了password参数,传入密码即可正常打开并解析。

with pdfplumber.open("encrypted.pdf", password="你的密码") as pdf:
    # ... 正常提取链接

常见问题与注意事项

  • 链接提取不到?这里有个关键概念:pdfplumber提取的是PDF标准中的“链接注释”。如果你的PDF里,网址是直接以纯文本形式写在内容里的(而不是可点击的链接对象),那么用文本搜索或正则表达式去匹配会更直接有效。
  • 小心CroppedPage相关的Bug:如果你对页面对象进行了裁剪操作,可能会遇到一些与CroppedPage相关的超链接提取Bug。万一碰到这种情况,可以尝试将pdfplumber更新到最新版本,或者更稳妥一点——直接在原始的、未经裁剪的Page对象上提取链接。
  • 扫描版PDF无能为力:这一点必须明确:pdfplumber主要擅长处理计算机直接生成的PDF。如果你的PDF是扫描件(也就是一堆图片),那么库是无法直接从中提取超链接甚至文本的。这种场景下,你需要先借助OCR技术(比如pytesseract这样的工具)把图片文字识别出来,再进行后续处理。
本文转载于:https://www.jb51.net/python/3622072ms.htm 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。

热门关注