写道
挥剑顺江而下2012-07-29 09:49:53
我又想到一点:考虑invalid 是怎么形成的,就是修改已经存在的数据。把数据分为冷数据和热数据。
【提示:此用户正在使用Q+ Web:http://web.qq.com/】
挥剑顺江而下2012-07-29 09:50:30
可以考虑把最热数据存放在一个块中
周健_SSD组博士2012-07-29 09:50:31
冷数据和热数据是个不容易撼动的东西,很难说什么数据是冷是热啊
周健_SSD组博士2012-07-29 09:50:59
cache本来的目的就是把近期的热点用更快的设备来服务
挥剑顺江而下2012-07-29 09:51:50
这是个问题。但是如果办到,可以让invalid page尽可能集中到一个块
周健_SSD组博士2012-07-29 09:51:55
也可以在后面考虑一下
挥剑顺江而下2012-07-29 09:52:33
那好阿,就利用cache,如果命中,就当他是热数据
周健_SSD组博士2012-07-29 09:53:06
周游的文章可能需要区分冷热
周健_SSD组博士2012-07-29 09:53:50
但是我觉得能做一个general的就只做一个general的,冷热和具体应用关系太大
周健_SSD组博士2012-07-29 09:54:43
我们可以下次具体讨论一下你的想法
挥剑顺江而下2012-07-29 09:56:30
还有读写延迟,集中起来处理,会不会对io响应时间造成很大影响?
挥剑顺江而下2012-07-29 09:57:01
集中起来处理的 好处是可以把对同一页的处理一起进行
周健_SSD组博士2012-07-29 09:57:11
你这个是想针对我上次说的GC提改进算法?
挥剑顺江而下2012-07-29 09:57:44
上次那个我没听懂嘻嘻
周健_SSD组博士2012-07-29 09:58:19
我提的这个cache算法是提高速度
周健_SSD组博士2012-07-29 09:58:47
你这个目的是什么
周健_SSD组博士2012-07-29 09:59:12
让invalid page尽可能集中到一个块?
挥剑顺江而下2012-07-29 09:59:33
我觉得吧,如果反复对同一页进行写,不但浪费时间,而且造成大量invalid page,还不如延迟以下,就写一次
周健_SSD组博士2012-07-29 09:59:40
这是写合并
周健_SSD组博士2012-07-29 09:59:47
有文章做过
挥剑顺江而下2012-07-29 10:00:17
哦~
周健_SSD组博士2012-07-29 10:01:57
Extending SSD Lifetimes with Disk-Based Write Caches
周健_SSD组博士2012-07-29 10:01:58
FAST 10
挥剑顺江而下2012-07-29 10:02:50
这个,别人都想到了艾
周健_SSD组博士2012-07-29 10:03:04
嗯
周健_SSD组博士2012-07-29 10:03:24
这个正好更体现我们的好啊
周健_SSD组博士2012-07-29 10:03:33
First, HDDs can match the sequential write bandwidth of
mid-range SSDs. Second, both server and desktop workloads
contain a significant fraction of block overwrites.
周健_SSD组博士2012-07-29 10:04:16
1. 上层已经把写变成连续写了; 2. 上层已经把一个块的重复写合并了
挥剑顺江而下2012-07-29 10:04:51
这个牛逼,怎么办到的
挥剑顺江而下2012-07-29 10:05:00
就是延迟?
周健_SSD组博士2012-07-29 10:05:12
利用硬盘连续写速度快
周健_SSD组博士2012-07-29 10:05:21
当写请求来的时候都写到硬盘里
周健_SSD组博士2012-07-29 10:05:33
用日志的方式记录下来
周健_SSD组博士2012-07-29 10:05:49
整理过后再更新到SSD
挥剑顺江而下2012-07-29 10:06:11
哦,附带一个硬盘作缓存
周健_SSD组博士2012-07-29 10:06:08
可能十多分钟或者半小时一整理
周健_SSD组博士2012-07-29 10:06:19
用HDD做SSD的写缓存
周健_SSD组博士2012-07-29 10:07:19
这就需要分析各种trace,说明他们的方法如何适用
我又想到一点:考虑invalid 是怎么形成的,就是修改已经存在的数据。把数据分为冷数据和热数据。
【提示:此用户正在使用Q+ Web:http://web.qq.com/】
挥剑顺江而下2012-07-29 09:50:30
可以考虑把最热数据存放在一个块中
周健_SSD组博士2012-07-29 09:50:31
冷数据和热数据是个不容易撼动的东西,很难说什么数据是冷是热啊
周健_SSD组博士2012-07-29 09:50:59
cache本来的目的就是把近期的热点用更快的设备来服务
挥剑顺江而下2012-07-29 09:51:50
这是个问题。但是如果办到,可以让invalid page尽可能集中到一个块
周健_SSD组博士2012-07-29 09:51:55
也可以在后面考虑一下
挥剑顺江而下2012-07-29 09:52:33
那好阿,就利用cache,如果命中,就当他是热数据
周健_SSD组博士2012-07-29 09:53:06
周游的文章可能需要区分冷热
周健_SSD组博士2012-07-29 09:53:50
但是我觉得能做一个general的就只做一个general的,冷热和具体应用关系太大
周健_SSD组博士2012-07-29 09:54:43
我们可以下次具体讨论一下你的想法
挥剑顺江而下2012-07-29 09:56:30
还有读写延迟,集中起来处理,会不会对io响应时间造成很大影响?
挥剑顺江而下2012-07-29 09:57:01
集中起来处理的 好处是可以把对同一页的处理一起进行
周健_SSD组博士2012-07-29 09:57:11
你这个是想针对我上次说的GC提改进算法?
挥剑顺江而下2012-07-29 09:57:44
上次那个我没听懂嘻嘻
周健_SSD组博士2012-07-29 09:58:19
我提的这个cache算法是提高速度
周健_SSD组博士2012-07-29 09:58:47
你这个目的是什么
周健_SSD组博士2012-07-29 09:59:12
让invalid page尽可能集中到一个块?
挥剑顺江而下2012-07-29 09:59:33
我觉得吧,如果反复对同一页进行写,不但浪费时间,而且造成大量invalid page,还不如延迟以下,就写一次
周健_SSD组博士2012-07-29 09:59:40
这是写合并
周健_SSD组博士2012-07-29 09:59:47
有文章做过
挥剑顺江而下2012-07-29 10:00:17
哦~
周健_SSD组博士2012-07-29 10:01:57
Extending SSD Lifetimes with Disk-Based Write Caches
周健_SSD组博士2012-07-29 10:01:58
FAST 10
挥剑顺江而下2012-07-29 10:02:50
这个,别人都想到了艾
周健_SSD组博士2012-07-29 10:03:04
嗯
周健_SSD组博士2012-07-29 10:03:24
这个正好更体现我们的好啊
周健_SSD组博士2012-07-29 10:03:33
First, HDDs can match the sequential write bandwidth of
mid-range SSDs. Second, both server and desktop workloads
contain a significant fraction of block overwrites.
周健_SSD组博士2012-07-29 10:04:16
1. 上层已经把写变成连续写了; 2. 上层已经把一个块的重复写合并了
挥剑顺江而下2012-07-29 10:04:51
这个牛逼,怎么办到的
挥剑顺江而下2012-07-29 10:05:00
就是延迟?
周健_SSD组博士2012-07-29 10:05:12
利用硬盘连续写速度快
周健_SSD组博士2012-07-29 10:05:21
当写请求来的时候都写到硬盘里
周健_SSD组博士2012-07-29 10:05:33
用日志的方式记录下来
周健_SSD组博士2012-07-29 10:05:49
整理过后再更新到SSD
挥剑顺江而下2012-07-29 10:06:11
哦,附带一个硬盘作缓存
周健_SSD组博士2012-07-29 10:06:08
可能十多分钟或者半小时一整理
周健_SSD组博士2012-07-29 10:06:19
用HDD做SSD的写缓存
周健_SSD组博士2012-07-29 10:07:19
这就需要分析各种trace,说明他们的方法如何适用