神经网络的范式(paradigm)
总结nlp各种任务,基本都可以用一个范式来概括,那就是分类,本人总结看过的nn论文,目前看到的所有的任务nn虽然各有不同,但是最终都回归到各种粒度的分类上面。也就是说我们现在的模型本质上都是在做分类,如果说有大佬可以举出反例欢迎讨论。
Paradigm : Y = softmax(Nerual network(X,W)) 或者 sigmoid(Nerual network(X,W)), X是输入的文本图像视频语音,W式是学习的参数,Nerual Network是我们搭建的模型比如rnn,lstm,cnn,bert等等,Y是预测的目标对应概率,实际上就是做一个分类。
Token level的分类
- NLG系列任务
- 阅读理解
- 序列标注
- Word2vec/bert
- 基于实体的情感分类
- 语音识别
Sentence level的分类
- 语义匹配
- 相似度匹配
- 句子分类
Document level
- 文档分类
Pixel level的分类,像素级别的分类
- 目标检测
- 语义分割
- 实例分割
Picture level的分类
- 图片分类
Video level的分类
- 视频分类