知方号

知方号

NLP 中语言表示 (向量化) 的基本原理和历史演变综述<语义组合原理>

目录 1 前言2 语言表示2.1 离散表示2.1.1 独热编码2.1.2 词袋模型2.1.3 TF-IDF 模型2.1.4 N-gram 模型2.1.5 基于聚类的表示 2.2 连续表示2.2.1 分布式表示2.2.2 Word Embedding2.2.2.1 Word2Vec2.2.2.2 GloVe2.2.2.3 FastText 2.2.3 基础神经网络模型2.2.3.1 神经词袋模型2.2.3.2 RNN (Recursive Neural Network)2.2.3.3 RNN (Recurrent Neural Network)2.2.3.4 CNN2.2.3.5 ELMo 2.2.4 基于 Transformer 的模型2.2.4.1 GPT2.2.4.2 BERT2.2.4.3 BART 2.2.5 基于浅层神经网络的结构数据表示学习2.2.5.1 DeepWalk2.2.5.2 LINE2.2.5.3 Node2vec 2.2.6 基于图神经网络的结构数据表示学习2.2.6.1 GCN2.2.6.2 GATs 3 结语4 参考

团队博客: CSDN AI小组

相关阅读

ChatGPT 简介关于 ChatGPT 必看的 10 篇论文从 ELMo 到 ChatGPT:历数 NLP 近 5 年必看大模型ChatGPT 中的人类反馈强化学习 (RLHF) 实战 1 前言

在自然语言处理(Natural Language Processing,NLP)领域中,语言表示是一项核心任务,其旨在将人类语言转化为计算机可理解和处理的形式。语言表示的基本原理和历史演变是理解和应用 NLP 技术的基石。随着人工智能和深度学习的迅猛发展,语言表示也经历了一系列的演进和改进。从早期符号化的离散表示方法到如今基于深度学习的分散式表示 (Distributed Representations) 方法,语言表示都在 NLP 任务中扮演着至关重要的角色。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至lizi9903@foxmail.com举报,一经查实,本站将立刻删除。