首页 > 编程知识 正文

bert根据语境获得词向量,为什么词嵌入要从前面补充0

时间:2023-05-04 15:21:16 阅读:10048 作者:2625

importtorchfromtorchimportnfromtransformersimportbertmodel,BertConfig, BertTokenizer#预培训模型的存储位置pre trained _ path=' Bert-base-Chinese/' config=Bert config.from _ pre trained (pre trained _ ) pre trained tokenizer=Bert tokenizer.from _ pre trained (pre trained ) ained_prom ) pre trained config=config (batch=tokenizer.# encode_plus (这是一个晴朗的早晨) ) encode _ plus是词典input _ ids=token _ type _ ids=torch.tensor ([batch] [ ' token _ type _ ids ' ] ) attention_mask=torch.tensor ) [ batch

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。