BERT(Bidirectional Encoder Representations from Transformers)是一种自然语言处理模型,由Google在2018年提出并开源。它能够学习出句子的语义表示,因此可以应用于各种NLP任务,其中包括中文情感分类。
本文地址:http://lianchengexpo.xrbh.cn/news/12408.html
迅博思语资讯 http://lianchengexpo.xrbh.cn/ , 查看更多