sentencepiece/README.md
2021-11-16 20:14:17 +08:00

6.8 KiB
Raw Permalink Blame History

sentencepiece

介绍

An unsupervised text tokenizer and detokenizer.

软件架构

软件架构说明

安装教程

  1. Python模块

    SentencePiece 提供了支持 SentencePiece 训练和分割的 Python 包装器。你可以安装 SentencePiece 的 Python 二进制包。

    % pip install sentencepiece

  2. 从 C++ 源代码构建和安装 SentencePiece 命令行工具

    构建 SentencePiece 需要以下工具和库:

    • make

    • C++11编译器

    • gperftools库可选可以获得 10-40% 的性能提升。)

    在 Ubuntu 上,可以使用 apt-get 安装构建工具:

    % sudo apt-get install cmake build-essential pkg-config libgoogle-perftools-dev

    然后,您可以按如下方式构建和安装命令行工具。

    % git clone https://github.com/google/sentencepiece.git

    % cd sentencepiece

    % mkdir build

    % cd build

    % cmake ..

    % make -j $(nproc)

    % sudo make install

    % sudo ldconfig -v

    在 OSX/macOS 上,将最后一个命令替换为 sudo update_dyld_shared_cache

  3. 用 vcpkg 构建和安装

    您可以使用vcpkg依赖项管理器下载并安装句子

    git clone https://github.com/Microsoft/vcpkg.git

    cd vcpkg

    ./bootstrap-vcpkg.sh

    ./vcpkg integrate install

    ./vcpkg install sentencepiece

    vcpkg 中的sentencepiece端口由 Microsoft 团队成员和社区贡献者保持最新。

使用说明

  1. 训练句子模型

    % spm_train --input= --model_prefix=<model_name> --vocab_size=8000 --character_coverage=1.0 --model_type=

    • --input每行一个句子的原始语料库文件。无需运行分词器、规范器或预处理器。默认情况下SentencePiece 使用 Unicode NFKC 规范化输入。您可以传递逗号分隔的文件列表。

    • --model_prefix: 输出模型名称前缀。<model_name>.model并<model_name>.vocab生成。

    • --vocab_size: 词汇量,例如 8000、16000 或 32000

    • --character_coverage: 模型覆盖的字符数好的默认值是0.9995对于具有丰富字符集的语言如日语或中文1.0以及其他具有小字符集的语言。

    • --model_type: 型号。从unigram默认bpe、char、 或 中选择word。使用wordtype时输入的句子必须预先标记。

  2. 将原始文本编码为句子片段/id

    % spm_encode --model=<model_file> --output_format=piece < input > output

    % spm_encode --model=<model_file> --output_format=id < input > output

    使用--extra_optionsflag 插入 BOS/EOS 标记或反转输入顺序。

    % spm_encode --extra_options=eos (add only)

    % spm_encode --extra_options=bos:eos (add and )

    % spm_encode --extra_options=reverse:bos:eos (reverse input and add and )

    SentencePiece 支持 nbest 分割和带--output_format=(nbest|sample)_(piece|id)标志的分割采样。

    % spm_encode --model=<model_file> --output_format=sample_piece --nbest_size=-1 --alpha=0.5 < input > output

    % spm_encode --model=<model_file> --output_format=nbest_id --nbest_size=10 < input > output

  3. 将句子片段/id 解码为原始文本

    % spm_decode --model=<model_file> --input_format=piece < input > output

    % spm_decode --model=<model_file> --input_format=id < input > output

    使用--extra_options标志以相反的顺序解码文本。

    % spm_decode --extra_options=reverse < input > output

  4. 端到端示例

    % spm_train --input=data/botchan.txt --model_prefix=m --vocab_size=1000

    unigram_model_trainer.cc(494) LOG(INFO) Starts training with :

    input: "../data/botchan.txt"

    ...

    unigram_model_trainer.cc(529) LOG(INFO) EM sub_iter=1 size=1100 obj=10.4973 num_tokens=37630 num_tokens/piece=34.2091

    trainer_interface.cc(272) LOG(INFO) Saving model: m.model

    trainer_interface.cc(281) LOG(INFO) Saving vocabs: m.vocab

    % echo "I saw a girl with a telescope." | spm_encode --model=m.model

    ▁I ▁saw ▁a ▁girl ▁with ▁a ▁ te le s c o pe .

    % echo "I saw a girl with a telescope." | spm_encode --model=m.model --output_format=id

    9 459 11 939 44 11 4 142 82 8 28 21 132 6

    % echo "9 459 11 939 44 11 4 142 82 8 28 21 132 6" | spm_decode --model=m.model --input_format=id

    I saw a girl with a telescope.

    可以发现原来的输入句是从词表id序列中还原出来的。

  5. 导出词汇表

    % spm_export_vocab --model=<model_file> --output=

    存储词汇表和排放日志概率列表。词汇 id 对应于该文件中的行号。

  6. 重新定义特殊元标记

    By default, SentencePiece uses Unknown (), BOS () and EOS () tokens which have the ids of 0, 1, and 2 respectively. 我们可以在训练阶段重新定义这个映射如下。

    % spm_train --bos_id=0 --eos_id=1 --unk_id=5 --input=... --model_prefix=... --character_coverage=...

    例如,设置 -1 id 时bos_id=-1将禁用此特殊标记。请注意无法禁用未知 ID。我们可以将填充的 id () 定义为--pad_id=3.

  7. 词汇限制

    spm_encode接受 a--vocabulary和 a--vocabulary_threshold选项这样spm_encode只会产生也出现在词汇表中的符号至少有一些频率

    用法与subword-nmt. 假设 L1 和 L2 是两种语言(源/目标语言),训练共享的 spm 模型,并为每个得到结果词汇:

    % cat {train_file}.L1 {train_file}.L2 | shuffle > train

    % spm_train --input=train --model_prefix=spm --vocab_size=8000 --character_coverage=0.9995

    % spm_encode --model=spm.model --generate_vocabulary < {train_file}.L1 > {vocab_file}.L1

    % spm_encode --model=spm.model --generate_vocabulary < {train_file}.L2 > {vocab_file}.L2

    shuffle命令只是为了以防万一因为spm_train默认情况下加载语料库的前 10M 行。

    然后使用--vocabulary选项分割训练/测试语料库

    % spm_encode --model=spm.model --vocabulary={vocab_file}.L1 --vocabulary_threshold=50 < {test_file}.L1 > {test_file}.seg.L1

    % spm_encode --model=spm.model --vocabulary={vocab_file}.L2 --vocabulary_threshold=50 < {test_file}.L2 > {test_file}.seg.L2

参与贡献

  1. Fork 本仓库
  2. 新建 Feat_xxx 分支
  3. 提交代码
  4. 新建 Pull Request

特技

  1. 使用 Readme_XXX.md 来支持不同的语言,例如 Readme_en.md, Readme_zh.md
  2. Gitee 官方博客 blog.gitee.com
  3. 你可以 https://gitee.com/explore 这个地址来了解 Gitee 上的优秀开源项目
  4. GVP 全称是 Gitee 最有价值开源项目,是综合评定出的优秀开源项目
  5. Gitee 官方提供的使用手册 https://gitee.com/help
  6. Gitee 封面人物是一档用来展示 Gitee 会员风采的栏目 https://gitee.com/gitee-stars/