您的位置:首页 >Python3提取汉字的常用方法有以下几种:方法一:使用正则表达式(推荐)import re text = "你好,世界!Hello, World! 123"
发布于2026-01-27 阅读(0)
扫一扫,手机访问
最常用方式是正则匹配Unicode汉字区间:[\u4e00-\u9fff]覆盖常用字,[\u3400-\u4dbf]含扩展A区生僻字,[\u3000-\u303f]含中文标点;可组合使用,如re.findall(r'[\u4e00-\u9fff]+', text)提取连续汉字。

Python3 提取汉字,核心是利用正则表达式匹配 Unicode 中文字符范围,或借助第三方库(如 jieba)做分词后筛选。最常用、轻量、无需额外依赖的方式是正则匹配。
中文汉字在 Unicode 中主要位于 \u4e00–\u9fff(基本汉字区),但实际还包含扩展 A 区(\u3400–\u4dbf)、扩展 B 区(部分超大字符集)、标点(如\u3000–\u303f)等。日常使用中,覆盖常用字可组合多个区间:
[\u4e00-\u9fff]:最常用,覆盖现代简体/繁体高频汉字[\u3400-\u4dbf]:CJK 扩展 A(生僻字、古籍用字)[\u3000-\u303f\u3040-\u309f\u30a0-\u30ff]:中文全角标点、平假名、片假名(按需添加)示例代码:
import retext = "Hello你好!123世界?,测试「abc」。" hanzi = re.findall(r'[\u4e00-\u9fff]+', text) print(hanzi) # ['你好', '世界', '测试']
注意:+ 表示连续汉字连成一个字符串;若要单字拆分,改用 r'[\u4e00-\u9fff]'。
适合清洗文本、构造纯汉字序列:
cleaned = re.sub(r'[^\u4e00-\u9fff]', '', text) print(cleaned) # '你好世界测试'
这个方法简单直接,但会丢弃所有非汉字内容,不含换行、空格、英文数字等。
当需要区分“词语”而非单字(比如排除“的”“了”等虚词,或保留“人工智能”这类复合词),可用 jieba 先分词,再按需筛选:
import jiebatext = "Python很强大,自然语言处理很重要!" words = jieba.lcut(text) hanzi_words = [w for w in words if re.fullmatch(r'[\u4e00-\u9fff]+', w)] print(hanzi_words) # ['Python', '很', '强大', '自然语言处理', '很重要']
⚠️ 注意:jieba 默认会保留英文单词(如 'Python'),所以需用正则二次判断是否纯汉字。若只想留中文词,建议加条件 len(w) > 1 and re.fullmatch(...) 过滤单字虚词(依任务而定)。
若文本含拼音(如 “zhong guo”)、日文假名或注音符号(ㄅㄆㄇ),可扩展正则范围或先清洗:
[^\u4e00-\u9fff\u3400-\u4dbf\u3000-\u303f]+ 替换为统一占位符,再提取例如清理后只留汉字和中文标点:
basic_chinese = re.sub(r'[^\u4e00-\u9fff\u3000-\u303f]', ' ', text).strip() hanzi_only = ''.join(hanzi for hanzi in basic_chinese if '\u4e00' <= hanzi <= '\u9fff')
不复杂但容易忽略细节:Unicode 范围要写对,避免漏掉扩展区;正则用 re.findall 比 re.search 更适合批量提取;分词+过滤适合有语义要求的场景。
下一篇:PHP静态网页卡片布局实现方法
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
7
9