机器学习入门(三)

今天了解的几个概念:

1、Neurogrid:

2014年5月13日消息,美国研究人员日前发明了一种基于人脑构造设计的全新芯片电路板“Neurogrid”。据悉,Neurogrid能够模拟人脑中的100万个神经元和数十亿个突触连接,而其运算速度已经达到了现有普通电脑的9000倍之巨。然而,同人类大脑的运算速度相比,即便是Neurogrid也依旧相去甚远。斯坦福大学生物工程学副教授夸贝纳-波尔翰(Kwabena Boahen)在国际顶级期刊《电气与电子工程师协会会刊》(IEEE)上表示,这一全新产品相比传统模拟人脑运算电脑的速度提高了许多,但其耗电量却仅为后者的四万分之一。“从单纯能耗的角度出发,人类大脑的运算方式非常难以模拟。”波尔翰说道。然而,波尔翰以及美国和欧洲的研发团队已经通过使用硅晶体以及软件模拟出了人类大脑的神经元构造。据悉,这个所谓的Neurogrid电路板由16块特制的“神经内核(Neurocore)”芯片组成,且每块芯片上都有超过65536个“硅神经元”,这些神经元可以通过80个参数进行编程以模拟出不同类型的神经元。而且,这16块芯片模拟出人脑1秒钟内的活动内容仅需1秒时间。

看了一些别的,它是用于模拟神经元的,不是用于提高计算速度的。也不知道后续怎么样了,没搜到相关信息了。


2、NLP:自然语言处理

自然语言处理,即实现人机间自然语言通信,或实现自然语言理解和自然语言生成是十分困难的。造成困难的根本原因是自然语言文本和对话的各个层次上广泛存在的各种各样的歧义性或多义性(ambiguity)。

目前存在的问题有两个方面:一方面,迄今为止的语法都限于分析一个孤立的句子,上下文关系和谈话环境对本句的约束和影响还缺乏系统的研究,因此分析歧义、词语省略、代词所指、同一句话在不同场合或由不同的人说出来所具有的不同含义等问题,尚无明确规律可循,需要加强语用学的研究才能逐步解决。另一方面,人理解一个句子不是单凭语法,还运用了大量的有关知识,包括生活知识和专门知识,这些知识无法全部贮存在计算机里。因此一个书面理解系统只能建立在有限的词汇、句型和特定的主题范围内;计算机的贮存量和运转速度大大提高之后,才有可能适当扩大范围.

OpenNLP
OpenNLP是一个基于Java机器学习工具包,用于处理自然语言文本。支持大多数常用的 NLP 任务,例如:标识化、句子切分、部分词性标注、名称抽取、组块、解析等。
FudanNLP
FudanNLP主要是为中文自然语言处理而开发的工具包,也包含为实现这些任务的机器学习算法和数据集。本工具包及其包含数据集使用LGPL3.0许可证。开发语言为Java。
语言技术平台(LTP)
语言技术平台(Language Technology Platform,LTP)是哈工大社会计算与信息检索研究中心历时十年开发的一整套中文语言处理系统。LTP制定了基于XML的语言处理结果表示,并在此基础上提供了一整套自底向上的丰富而且高效的中文语言处理模块(包括词法、句法、语义等6项中文处理核心技术),以及基于动态链接库(Dynamic Link Library, DLL)的应用程序接口,可视化工具,并且能够以网络服务(Web Service)的形式进行使用。


3、CV:计算机视觉

相关概念:卷积神经网络(Convolutional Neural Nets,CNN)


4、深度学习

深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。


猜你喜欢

转载自blog.csdn.net/xiaokui9/article/details/79571586