找回密码
 立即注册
搜索

NLP自然言语处理中英文分词工具集锦与基本运用引见




一、中文分词工具

(1)Jieba




(2)snowNLP分词工具




(3)thulac分词工具




(4)pynlpir 分词工具




(5)StanfordCoreNLP分词工具

1.from stanfordcorenlp import StanfordCoreNLP

2.with StanfordCoreNLP(r'E:\Users\Eternal Sun\PycharmProjects\1\venv\Lib\stanford-corenlp-full-2018-10-05', lang='zh') as nlp:

3. print("stanfordcorenlp分词:\n",nlp.word_tokenize(Chinese))

(6)Hanlp分词工具




分词结果如下:




二、英文分词工具

1. NLTK:




二者之间的区别在于,假如先分句再分词,那么将保留句子的独立性,即生成结果是一个二维列表,而对于直接分词来说,生成的是一个直接的一维列表,结果如下:




2. SpaCy:




3. StanfordCoreNLP:




分词结果

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

大神点评3

支持支持再支持
回复

使用道具 举报

〃阿酱mmmmmmmm 2019-6-1 20:06:46 来自手机 显示全部楼层
高手云集 果断围观
回复

使用道具 举报

珍爱生命,果断回帖。
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies