失效链接处理 |
大模型LLMS面试宝典 DOC 下蝲
相关截图Q?/strong>
![]() 主要内容Q?/strong> Byte-Pair Encoding(BPE)?/strong>
1 Byte-Pair Encoding(BPE) 如何构徏词典Q?/strong> 1 准备_的训l语?以及期望的词表大; 2 单词拆分ؓ字符_度(字粒?Q?q在末尾d后缀“”Q?l计单词频率 3 合ƈ方式:l计每一个连l?盔R字节对的出现频率Q?最高频的连l字节对合ƈ为新字词Q?/span> 4 重复W?nbsp;3 步, 直到词表辑ֈ讑֮的词表大?或下一个最高频字节对出现频率ؓ 1?nbsp;注: GPT2 、BART ?nbsp;LLaMA 采用了BPE?/span>
Word Piece ?/strong>
Word Piece ?/strong> BPE 异同Ҏ(gu)什么? 本质上还是BPE 的思想。与BPE 最大区别在?如何选择两个子词q行合ƈ BPE 是选择频次最?nbsp;的相d词合qӞ Word Piece 法选择能够提升语言模型概率最大的盔R子词q行合ƈQ?nbsp;来加入词表; 注: BERT 采用?nbsp;Word Piece?/span>
SentencePiece ?/strong>
单介l一?/strong> SentencePiece 思\Q?/strong> 把空g当作一U特D字W来处理Q再用BPE 或者来构造词汇表?nbsp;注:ChatGLM 、BLOOM ?nbsp;PaLM 采用了SentencePiece?/span>
|