《大数据日知录》读书笔记-ch12机器学习:范型与架构

机器学习算法特点:迭代运算

损失函数最小化训练过程中,在巨大参数空间中迭代寻找最优解

比如:主题模型、回归、矩阵分解、SVM、深度学习

分布式机器学习的挑战:

- 网络通信效率

- 不同节点执行速度不同:加快慢任务

- 容错性

机器学习简介:

数据并行vs模型并行:

数据并行

 

模型并行

分布式机器学习范型:

其他情形

MPI:容错性差、集群规模小、扩展性低

GPU:目前处理规模中等(6-10GB)

1. 同步范型(严格情形每轮迭代进行数据同步)

快等慢,计算资源浪费;网络通信多

eg:MapReduce迭代计算、BSP模型属于严格同步范型

2. 异步范型(任意时刻读取更新全局参数)

若部分任务迭代严重落后会拉低效果

3. 部分同步范型(主要研究方向)

eg:SSP模型

MapReduce迭代计算模型

BSP(Bulk Synchronous Parallel)计算模型

“桥接模型”:介于纯硬件、纯编程模式之间的模型

许多相关工作已验证BSP模型的健壮性、性能可预测性和可扩展性

 优点:

缺点:

资源利用率低、网络通信多、计算效率低

图计算框架也用BSP:比如Pregel、Giraph

SSP(Stale Synchronous Parallel)计算模型

阈值s=0时,SSP退化为BSP同步模型;s=+inf时,SSP演化为完全异步模型

分布式机器学习架构:

MapReduce系列架构:

Cloudera Oryx、Apache Mahout,两者类似。

Spark及MLBase:

Spark

2. MLBase

参数服务器(Parameter Server):

比如:Google能处理百亿参数的深度机器学习框架DistBelief

1. 架构

2. 一致性模型

需要设计新型的参数副本一致性均衡正确性和并发度。往往通过受限的异步并行方式(类似于部分同步并行)

1)时钟界异步并行(Clock-bounded Asynchronous Parallel,CAP)

2)值界异步并行(Value-bounded Asynchronous Parallel,VAP)

不考虑时钟值而是参数的更新积累数值。

也可以集成CAP和VAP。有理论可以证明:对于随机梯度下降等常见机器学习算法,VAP可以保证算法收敛性。

3. SSPTable

 

 

猜你喜欢

转载自www.cnblogs.com/yaoyaohust/p/10680216.html