周三, 早晨下雨☔️过后,便出现太阳了。
下周,可能要离开这里了,去往新的地方了,
原来的计划是, 这个系列之后:
继续学习哈工大的李志军老师《操作系统原理与实践》的九个实验,
现在改为学习顺序 《汇编语言》9 个实验 + 孟宁老师的《Linux内核分析》9个实验, 祝愿自己去往新的地方后, 能够继续学习上述内容, 之后在回过头来看李志军老师的课程。
之后便开始研究智能系统, 并将科研继续下去;
原文节选自这里,有兴趣,可以查看
Linux作为一个类UNIX系统,其文件系统保留了原始UNIX文件系统的表象形式,它看起来是这个样子:
/$ ls
bin dev initrd.img lib64 mnt root snap sys var
boot etc initrd.img.old lost+found opt run srv tmp vmlinuz
cdrom home lib media proc sbin swapfile usr vmlinuz.old
respecting-god@Lenovo-Legion:/$ cd home/
respecting-god@Lenovo-Legion:/home$ ls
respecting-god shiyanlou
它其实是一棵目录树(没有画全):
然而,虽然所有的UNIX系统以及类UNIX系统的文件系统看起来一样,但是它们的实现却是不尽相同。
作为普通用户,了解文件系统的基本操作就够了;作为应用开发人员,了解文件系统的POSIX接口足矣,但是作为一个对操作系统有着浓厚兴趣的爱好者而言,自己可能就是一个新的文件系统的潜在实现者,所以必须一窥究竟,看看如此外观的文件系统到底是如何实现的。
网上已经有了很多关于UNIX/Linux文件系统实现的资源,但是无一例外,都太复杂了,除了整体的源码分析外,几乎就是针对某个特定文件系统的详解了,如此复杂的这些对于初涉该领域的满腔热情者无疑是一盆冷水,很多人因此望而却步。
…
- mount机制是如何实现的?
- inode是如何分配的?磁盘inode和内存inode有什么区别?
- dentry缓存是怎么回事?是如何管理的?
- pagecache是什么?radix树如何管理文件数据缓存?
- cache和buffer的区别又是什么?
…
几乎所有的关于Linux文件系统实现的资源都在用不同的语言解释上面的这些问题,这很容易陷入细节的泥潭。
本文中,通过一个实实在在的文件系统实现的例子,试图阐述 实现一个文件系统,哪些是必须的,哪些不是必须的。
这是一个任务驱动的过程,从简单的例子开始。
读过本文之后,相信会对Linux文件系统的实现有一个总体上的宏观把握,然后再去反复推敲上述的细节问题,重读网上的那些经典资源,相信会事半功倍。
具体而言以Linux内核为例,用一种稍微不同的方式去描述文件系统的实现。分3个部分来介绍Linux内核的文件系统:
- Linux文件系统在不同视角下的样子
- 实现一个很小但能跑的文件系统
- 接下来要做什么
本文最后会给出一个有趣的例子, 即:
- 如何在Windows系统挂载文件系统到目录?
很多人觉得不可能,但确实做到了,毕竟UNIX/Linux的mount模型是个正确的模型,万变不离其宗,正确的模型放之四海而皆准,Windows当然也不例外地实现了该模型。希望赶紧看到这个彩蛋的,可以直接跳到文章的最后一节。
1. Linux文件系统在不同视角下的样子
当然,在给出最简单的tinyfs实现之前,还是会有一个总体的介绍。
1.1 树的角度
如果我们把本文最初描述的那个在几乎所有UNIX/类UNIX系统中长的一模一样的文件系统表面刨开,在Linux内核中,文初的那棵树其实它长下面的样子(其实在大多数类UNIX系统中,它们长得都差不多):
我们看到,Linux系统的文件目录树就是靠上图中的这一系列的链表穿针引线给串在一起的,就像缝制一件衣服一样,最终的成衣就是我们看到的Linux系统目录树,而缝制这件成衣的线以及指导走线的规则便是VFS本身了。
现在只要记住两个重要链表:
- 文件系统链表。
- 每一个文件系统的mount挂载点链表。
然后读完本文之后再去结合代码深入分析它们是如何串起整个文件系统的。
1.2 VFS 虚拟文件系统的角度
VFS之所有可以将机制大相径庭的完全不同的文件系统对外统一成一个样子,完全就是依靠了它的统一的对POSIX文件调用的接口,该接口的结构看上去是下面的样子:
注意上图最下面的那个椭圆,如果要实现一个文件系统,这个椭圆里的东西是关键,它完成了穿针引线的大部分工作。
1.3 纵向的角度
现在让我们纵向地看一下一个完整的文件系统实现都包括什么,我指的是从POSIX系统调用开始,一直到数据落盘。Linux内核关于文件系统IO,完整的视图如下所示:
注意VFS提供的三类接口:
- 和POSIX系统调用的接口
即实现open/read/write的操作的接口。 - 和底层介质的接口
即下接块设备层的接口。 - 如何管理自身
即何时以及如何操作VFS数据结构inode,dentry,mount等对象。
一个文件系统如果能实现上面三类接口,那它就是个完整的文件系统了。
我们恰好可以从设计并实现一个最基本的这样的文件系统开始。一个基本的文件系统,其着重点在于上图中红色的部分,而其它部分则不是必不可少的,但是却是让该文件系统变得优秀(而不仅仅是可用)所必须的。
1.4 起因
为什么要实现这么一个文件系统,难道没人已经做了这个工作吗?做这个工作的意义何在?
原因如下:
- 我没有找到现成的比较完整且炫酷的作品。
当然有人写这种文件系统练手,但是看下来要么就是使用了libfs.c里封装好的接口,要么就是没有自己设计文件系统的底层存储格式。 - 兴趣使然
然而确实,我没有找到简单的 最小文件系统 实现,也许你会说Linux内核自带的ramfs难道不就是一个现成的吗?的确算一个,但它有两个问题导致你无法领略实现一个文件系统的全过程,注意,我说的可是全过程:
- ramfs无法让你自己设计底层模拟介质的格式,不完整。
- ramfs调用了大量的fs/libfs.c中的内核库例程,不纯碎。
为了 追求完整, 如果你把如何组织一块内核作为ramfs的底层介质这部分代码全部看完,如果你把libfs.c里的库实现全部看完,我想ramfs也就不算一个 足够简单 的文件系统实例了。
看到了么?要想代码简单,你就不得不使用libfs.c里的现成的例程,这将损失你实现一个文件系统的完整性体验,反之,要想完整实现一个文件系统,你可能不得不自己写大量的代码,这却并不简单。
如何既完备,又足够简单呢?
这对于我而言,是一个挑战,但我要试一试,没想到就成功了。
所以才有了今天的分享。
2. 实现一个很小但能跑的文件系统
从最底层的介质结构的设计开始。
我并没有真实的硬件介质,也并不打算编写专门的 格式化程序 去格式化一块内存区域,所以我直接用大数组定义一块内存,它便是我的模拟介质了,我的tinyfs的文件格式如下:
// tinyfs.h
#define MAXLEN 8
#define MAX_FILES 32
#define MAX_BLOCKSIZE 512
// 定义每一个目录项的格式
struct dir_entry {
char filename[MAXLEN];
uint8_t idx;
};
// 定义每一个文件的格式。
struct file_blk {
uint8_t busy;
mode_t mode;
uint8_t idx;
union {
uint8_t file_size;
uint8_t dir_children;
};
char data[0];
};
// OK,下面的block数组所占据的连续内存就是我的tinyfs的介质,每一个元素代表一个文件。
// struct file_blk block[MAX_FILES+1];
这个文件系统的格式非常的Low:
- 最多容纳512个文件(包括目录在内)。
- 每个文件包括元数据在内最多32个字节。
- 文件名最多8个字节。
之所以这么Low是因为它只是一个开始, 当这个文件系统实现并且能跑之后,你会发现它因为Low而带来的不足和一些代价,而弥补这些不足正好是优化的动机,带着你逐步实现一个更加不Low的文件系统,在实现的过程中,你会窥见并掌握Linux内核文件系统的全貌和细节。 完美的学习过程,OK!
下面是代码:
// tinyfs.c
#include <linux/init.h>
#include <linux/module.h>
#include <linux/fs.h>
#include <linux/uaccess.h>
#include "tinyfs.h"
struct file_blk block[MAX_FILES+1];
int curr_count = 0; // 我勒个去,竟然使用了全局变量!
// 获得一个尚未使用的文件块,保存新创建的文件或者目录
static int get_block(void)
{
int i;
// 就是一个遍历,但实现快速。
for (i = 2; i < MAX_FILES; i++) {
if (!block[i].busy) {
block[i].busy = 1;
return i;
}
}
return -1;
}
static struct inode_operations tinyfs_inode_ops;
// 读取目录的实现
static int tinyfs_readdir(struct file *filp, void *dirent, filldir_t filldir)
{
loff_t pos;
struct file_blk *blk;
struct dir_entry *entry;
int i;
pos = filp->f_pos;
if (pos)
return 0;
blk = (struct file_blk *)filp->f_dentry->d_inode->i_private;
if (!S_ISDIR(blk->mode)) {
return -ENOTDIR;
}
// 循环获取一个目录的所有文件的文件名
entry = (struct dir_entry *)&blk->data[0];
for (i = 0; i < blk->dir_children; i++) {
filldir(dirent, entry[i].filename, MAXLEN, pos, entry[i].idx, DT_UNKNOWN);
filp->f_pos += sizeof(struct dir_entry);
pos += sizeof(struct dir_entry);
}
return 0;
}
// read实现
ssize_t tinyfs_read(struct file * filp, char __user * buf, size_t len, loff_t *ppos)
{
struct file_blk *blk;
char *buffer;
blk = (struct file_blk *)filp->f_path.dentry->d_inode->i_private;
if (*ppos >= blk->file_size)
return 0;
buffer = (char *)&blk->data[0];
len = min((size_t) blk->file_size, len);
if (copy_to_user(buf, buffer, len)) {
return -EFAULT;
}
*ppos += len;
return len;
}
// write实现
ssize_t tinyfs_write(struct file * filp, const char __user * buf, size_t len, loff_t * ppos)
{
struct file_blk *blk;
char *buffer;
blk = filp->f_path.dentry->d_inode->i_private;
buffer = (char *)&blk->data[0];
buffer += *ppos;
if (copy_from_user(buffer, buf, len)) {
return -EFAULT;
}
*ppos += len;
blk->file_size = *ppos;
return len;
}
const struct file_operations tinyfs_file_operations = {
.read = tinyfs_read,
.write = tinyfs_write,
};
const struct file_operations tinyfs_dir_operations = {
.owner = THIS_MODULE,
.readdir = tinyfs_readdir,
};
// 创建文件的实现
static int tinyfs_do_create(struct inode *dir, struct dentry *dentry, umode_t mode)
{
struct inode *inode;
struct super_block *sb;
struct dir_entry *entry;
struct file_blk *blk, *pblk;
int idx;
sb = dir->i_sb;
if (curr_count >= MAX_FILES) {
return -ENOSPC;
}
if (!S_ISDIR(mode) && !S_ISREG(mode)) {
return -EINVAL;
}
inode = new_inode(sb);
if (!inode) {
return -ENOMEM;
}
inode->i_sb = sb;
inode->i_op = &tinyfs_inode_ops;
inode->i_atime = inode->i_mtime = inode->i_ctime = CURRENT_TIME;
idx = get_block(); // 获取一个空闲的文件块保存新文件
blk = &block[idx];
inode->i_ino = idx;
blk->mode = mode;
curr_count ++;
if (S_ISDIR(mode)) {
blk->dir_children = 0;
inode->i_fop = &tinyfs_dir_operations;
} else if (S_ISREG(mode)) {
blk->file_size = 0;
inode->i_fop = &tinyfs_file_operations;
}
inode->i_private = blk;
pblk = (struct file_blk *)dir->i_private;
entry = (struct dir_entry *)&pblk->data[0];
entry += pblk->dir_children;
pblk->dir_children ++;
entry->idx = idx;
strcpy(entry->filename, dentry->d_name.name);
// VFS穿针引线的关键步骤,将VFS的inode链接到链表
inode_init_owner(inode, dir, mode);
d_add(dentry, inode);
return 0;
}
static int tinyfs_mkdir(struct inode *dir, struct dentry *dentry, umode_t mode)
{
return tinyfs_do_create(dir, dentry, S_IFDIR | mode);
}
static int tinyfs_create(struct inode *dir, struct dentry *dentry, umode_t mode, bool excl)
{
return tinyfs_do_create(dir, dentry, mode);
}
static struct inode *tinyfs_iget(struct super_block *sb, int idx)
{
struct inode *inode;
struct file_blk *blk;
inode = new_inode(sb);
inode->i_ino = idx;
inode->i_sb = sb;
inode->i_op = &tinyfs_inode_ops;
blk = &block[idx];
if (S_ISDIR(blk->mode))
inode->i_fop = &tinyfs_dir_operations;
else if (S_ISREG(blk->mode))
inode->i_fop = &tinyfs_file_operations;
inode->i_atime = inode->i_mtime = inode->i_ctime = CURRENT_TIME;
inode->i_private = blk;
return inode;
}
struct dentry *tinyfs_lookup(struct inode *parent_inode, struct dentry *child_dentry, unsigned int flags)
{
struct super_block *sb = parent_inode->i_sb;
struct file_blk *blk;
struct dir_entry *entry;
int i;
blk = (struct file_blk *)parent_inode->i_private;
entry = (struct dir_entry *)&blk->data[0];
for (i = 0; i < blk->dir_children; i++) {
if (!strcmp(entry[i].filename, child_dentry->d_name.name)) {
struct inode *inode = tinyfs_iget(sb, entry[i].idx);
struct file_blk *inner = (struct file_blk *)inode->i_private;
inode_init_owner(inode, parent_inode, inner->mode);
d_add(child_dentry, inode);
return NULL;
}
}
return NULL;
}
int tinyfs_rmdir(struct inode *dir, struct dentry *dentry)
{
struct inode *inode = dentry->d_inode;
struct file_blk *blk = (struct file_blk *)inode->i_private;
blk->busy = 0;
return simple_rmdir(dir, dentry);
}
int tinyfs_unlink(struct inode *dir, struct dentry *dentry)
{
int i;
struct inode *inode = dentry->d_inode;
struct file_blk *blk = (struct file_blk *)inode->i_private;
struct file_blk *pblk = (struct file_blk *)dir->i_private;
struct dir_entry *entry;
// 更新其上层目录
entry = (struct dir_entry *)&pblk->data[0];
for (i = 0; i < pblk->dir_children; i++) {
if (!strcmp(entry[i].filename, dentry->d_name.name)) {
int j;
for (j = i; j < pblk->dir_children - 1; j++) {
memcpy(&entry[j], &entry[j+1], sizeof(struct dir_entry));
}
pblk->dir_children --;
break;
}
}
blk->busy = 0;
return simple_unlink(dir, dentry);
}
static struct inode_operations tinyfs_inode_ops = {
.create = tinyfs_create,
.lookup = tinyfs_lookup,
.mkdir = tinyfs_mkdir,
.rmdir = tinyfs_rmdir,
.unlink = tinyfs_unlink,
};
int tinyfs_fill_super(struct super_block *sb, void *data, int silent)
{
struct inode *root_inode;
int mode = S_IFDIR;
root_inode = new_inode(sb);
root_inode->i_ino = 1;
inode_init_owner(root_inode, NULL, mode);
root_inode->i_sb = sb;
root_inode->i_op = &tinyfs_inode_ops;
root_inode->i_fop = &tinyfs_dir_operations;
root_inode->i_atime = root_inode->i_mtime = root_inode->i_ctime = CURRENT_TIME;
block[1].mode = mode;
block[1].dir_children = 0;
block[1].idx = 1;
block[1].busy = 1;
root_inode->i_private = &block[1];
sb->s_root = d_make_root(root_inode);
curr_count ++;
return 0;
}
static struct dentry *tinyfs_mount(struct file_system_type *fs_type, int flags, const char *dev_name, void *data)
{
return mount_nodev(fs_type, flags, data, tinyfs_fill_super);
}
static void tinyfs_kill_superblock(struct super_block *sb)
{
kill_anon_super(sb);
}
struct file_system_type tinyfs_fs_type = {
.owner = THIS_MODULE,
.name = "tinyfs",
.mount = tinyfs_mount,
.kill_sb = tinyfs_kill_superblock,
};
static int tinyfs_init(void)
{
int ret;
memset(block, 0, sizeof(block));
ret = register_filesystem(&tinyfs_fs_type);
if (ret)
printk("register tinyfs failed\n");
return ret;
}
static void tinyfs_exit(void)
{
unregister_filesystem(&tinyfs_fs_type);
}
module_init(tinyfs_init);
module_exit(tinyfs_exit);
MODULE_LICENSE("GPL");
review代码后,你可能已经发现了几个问题:
- 这个tinyfs文件系统存储格式中怎么没有超级块?(竟然使用了全局变量)
- 这个tinyfs文件系统存储格式中怎么没有inode表或者空闲位图?
- 这个tinyfs文件系统怎么将元数据和文件数据放在了一起?
- 这个文件系统怎么不支持并发?没见到一把锁啊!
…
嗯,其实这些问题目前而言还都不是问题,它们并不阻碍这个文件系统的真实性,它用起来是那么的真实。
没有任何规范规定一个文件系统存储格式必须有什么或者必须没有什么,文件系统格式只是一个 看上去还可以的信息持久化记录格式 ,只要下次能根据某些信息将文件读取出来,任何格式都是OK的。
之所以很多人会认为一个文件系统的格式必须要符合某种规范,完全是因为人们看的最多的那些文件系统ext3,ext4,ntfs等恰好是那样做的罢了。不过事实证明,那样做确实是很好的。在可用的玩具完成之后,就要考虑 性能,健壮性,可扩展性 等这些工程因素了。而ext3/4,ntfs,xfs则充分考虑了这些。
逐渐的,权威变成了规范,至少成了一种范式或者模式,这是计算机领域常有的事,见怪不怪。
我们来使用下这个文件系统:
[root@localhost ~]# insmod ./tinyfs.ko
[root@localhost ~]# mount -t tinyfs none /mnt
OK,挂载成功。
这里又有疑问了,为什么是none挂载,而不是一个块设备,比如/dev/sda1
之类的。
这是因为我根本没有将介质(其实是一块连续的内存)抽象成块设备,如果引入块设备抽象,势必要导出device层操作接口,这样做并不困难,但却太麻烦,且块设备抽象和文件系统的实现核心无关。本文不是讲块设备的,故不做抽象。
好了,现在让我们来折腾下/mnt目录,该目录就是我的tinyfs的挂载目录了,在其下读写文件,就是在tinyfs的内存介质上读写文件:
[root@localhost ~]# cd /mnt/
[root@localhost mnt]# ls
[root@localhost mnt]#
[root@localhost mnt]# echo 11111 >./a
[root@localhost mnt]# cat ./a
11111
[root@localhost mnt]# mkdir dir1
[root@localhost mnt]# echo 22222 >./dir1/b
[root@localhost mnt]#
[root@localhost mnt]# cat ./dir1/b
22222
[root@localhost mnt]#
[root@localhost mnt]# tree
.
├── a
└── dir1
└── b
1 directory, 2 files
[root@localhost mnt]# echo 333 >./dir1/c
[root@localhost mnt]# cat ./dir1/c
333
[root@localhost mnt]# tree
.
├── a
└── dir1
├── b
└── c
1 directory, 3 files
[root@localhost mnt]# rm -f ./dir1/c
[root@localhost mnt]#
[root@localhost mnt]# tree
.
├── a
└── dir1
└── b
1 directory, 2 files
[root@localhost mnt]# rm -rf dir1
rm: 无法删除"dir1": 不允许的操作
[root@localhost mnt]#
除了最后一个删除目录的操作,其它的都OK,这也是预期之中,毕竟删除目录是TODO嘛。
2. 基础功能的优化
接下来要做什么
一共300来行的代码(省去了很多异常判断和处理,真实情况下,这些要占据80%的代码量),非常容易读懂,你会发现这个文件系统实现是如此之low,然而却能看起来像真的一样。
这意味着完成和完美真的是两回事!
很多最终看起来很大型的东西,都是都这种刚刚完成可以用开始的。
很明显,这个代码没有使用块层来和底层介质通信,而是直接操作了底层介质,也就是那块连续的内存。因为我用内存模拟介质,尚且OK,如果底层真的有一个类似磁盘那样的慢速介质,每次操作直接读写block将是不可接受的。但如果你想获得性能上的提升,就必须使用块层的缓存机制,以及pagecache机制。
2.1 to do list
所以,方向很明确,我们有了一个todolist:
- fix掉可能的bug,主要是引用计数的管理方面。
- 设计更好的文件系统底层存储格式,至少让它看起来更像回事。
比如引入超级块保存全局元数据,引入空闲索引位图,引入优雅的空闲块管理算法,类似内存管理那样,减少内外的存储碎片,引入一些启发式策略,比如预读,合并写,当然,这些属于调度的范畴,但无论如何, 良好的存储结构可以极大影响启发式策略的实施。 - 使用块层标准接口进行IO,比如 sb_bread,mark_buffer_dirty 这样的接口。
- 使用pagecache进行数据cache。
这些todo完成,意味着对Linux内核文件系统实现原理的彻底掌握,从一个简单的刚刚可用的tinyfs开始(这花不了多少时间),到整理出一份todolist,到完成这些todo,这便是一个任务驱动的学习过程。
2.2 回头看一看
回过头来看Linux文件系统IO的纵向视图:
这次注意蓝色部分,我们的TODO就是要补充这部分的实现。
2.3 换一个视角看VFS
好了,换一个视角看VFS。
我们把Linux内核内存中的VFS看作是磁盘等慢速介质中特定文件系统的缓存,这是一个典型的 分级存储结构, 就好像CPU cache和内存的关系一样。
在这个视角下,如何完成上图蓝色框框中的部分,可参考的现成范式就太多了。但无论如何都要解决的是:
- 哪些磁盘数据有资格进入到内存VFS的cache结构?
- 这些被cache的磁盘文件系统数据cache在什么地方?
- cache的淘汰算法是怎样的?
Linux内核已经给了我们一个现成的答案:
- 磁盘IO依然遵循局部性原则,无论是时间局部性还是空间局部性,磁盘IO的局部性原则和磁盘结构(磁道,扇区等)以及启发式预读算法结合在一起,共同决定哪些数据要cache在内存。
- 磁盘数据以pagecache的形式保存在内存,当然你也可以DirectIO。
- cache淘汰根据LRU以及系统内存的吃紧程度来进行实施。具体过程涉及脏页如何回写。
当然,如果你觉得这些不够好,你也可以设计你自己的。总之,这是一块非常独立的工作,正如我图中所示,这部分工作的目标是,在文件系统刚好可以工作后, 让事情变得更加完美!
3. Windows 下文件系统挂载
3.1 两者的比对
- 谈谈Linux和Windows文件系统挂接的异同
平时喜欢把类似的东西放在一起比较,比如秦汉和罗马帝国之类的,所以圈内的经常有人想让我谈下Windows和Linux的文件系统之间区别。
先看一篇很早之前的文章:
Linux文件系统的设计: https://blog.csdn.net/dog250/article/details/6347504/
该文章讲了Linux文件系统mount机制的超级好处。
我不是很懂Windows的内在实现机理,所以我只能外在的谈一下。Windows和Linux对待文件系统的区别,貌似非常对称:
- Linux是把文件系统(或者说格式化为某个文件系统的磁盘分区)挂载在目录上。
- Windows是把目录挂在已经格式化的盘符(其实是一个逻辑卷,即磁盘分区)上。
所以说,按照以上的理解:
Linux若想挂载一个文件系统,必须要有一个目录。
Windows若想挂接一个特定文件系统的目录,必须要有一个盘符。
所以说,我们看到Windows系统中的 “C盘” ,就像看到Linux中的 “/目录” 一样
为什么Windows没有采用几乎已经是范式的UNIX/Linux文件系统树形mount的实现方式,非要采用一个盘符一个文件系统的方式呢?几乎每个人都知道UNIX/Linux的mount机制会更好一些,无缝插拔,无限扩展,然而Windows却貌似并未采用。
我们进入Linux系统后,输入mount命令,会看到下面的信息:
每一个磁盘,都挂载在一个目录上,这是一个典型的 可插拔的分层树形 结构。
在Windows系统,类似的信息如下(这里只是初步看来,惊喜还在后面):
可见,Windows的文件系统是直接诉诸逻辑卷的,缺失了目录挂载点。因此,在对待 文件系统动态扩容(而不是磁盘分区扩容) 操作上,就非常麻烦,可插拔操作几近不可能。
请注意在微软系Windows系统的前身是DOS,DOS这个单词中的D指的就是Disk的意思。在DOS时代,内存及其少,少得可怜,所以干嘛不直接用盘符来直接索引目录的起始呢?更何况,彼时一般只有一块磁盘,磁盘即系统,系统宿主就是磁盘,故名曰 Disk Operating System ,即 DOS 。
磁盘文件系统,即DOS的内在灵魂,一直延续到了今日。
如何非要和Linux文件系统类比,Windows的盘符更像是Linux的mount数据结构,而不仅仅是个盘符,照着Linux文件系统的结构,我试着画一画Windows的类似结构:
好了,Windows文件系统的种种不如UNIX/Linux就到此为止,接下来,我要说的是,Windows系统有能力做到UNIX/Linux系统那般的树形目录mount结构。
3.2 Windows文件系统的mount挂载
“实际是否去做” 和 “是否有能力去做” 完全是两码事。很少有人见过Windows系统的树形mount结构,因为:
- Windows为了兼容,舍弃了很多表面的东西,至少它要看起来仍然很像最初的Windows 95甚至Windows 3。
- 在Windows下,很少有人折腾命令行,所以很少有人去折腾diskpart命令。而彩蛋就在该命令里。
下面step by step演示如何来做。
- 首先准备若干空闲的逻辑卷。在我的例子中,我准备了两个NTFS分区,D盘和E盘:
- 我们看一下diskpart命令里的assign子命令:
Windows命令行的help非常棒,让我有种操作Cisco路由器的感觉。
值得注意的是, 上述help提示中,PATH代表的目录必须是一个空目录。 这是和UNIX/Linux的文件系统挂载点任意覆盖已有目录所不同的。
-
现在让我们看一下D盘和E盘的表象:
-
我们在C盘新建一个目录mnt,希望将E盘的NTFS系统挂载在mnt目录:
-
让我们开始吧!先list一下所有的逻辑卷:
-
选择标识E盘的逻辑卷标号,并且挂载它到C盘的mnt目录:
- 我们看到E盘消失了:
- E盘被mount到了C盘的mnt目录:
- 果然如此:
-
让我们操作一番E盘,就像操作C盘的mnt目录一般:
-
继续在E盘的mount点C:\mnt继续创建新目录挂载D盘:
- D盘mount成功,并创建个文件:
这个时候,C盘就类似UNIX/Linux的根目录( “/” )了,所有其它两个逻辑卷盘符D盘,E盘嵌套mount在C盘下的目录!
- diskpart命令提示符下输入以下命令序列,恢复D盘逻辑卷:
DISKPART> remove mount=c:\mnt\vol_D
DISKPART> select vol=3
DISKPART> assign mount=d:
- 最后我们看到的是这样:
所谓万变不离其宗,这就是了。
Windows的内在依然没有逃过mount目录树?。
看完了这个,本文也要结束了。结束之前,我们来总结一下。
本文通过一个看得见摸得着的实例,来认识Linux文件系统的全貌和本质,推而广之,普遍化这些本质,最后在Windows系统中见证了它。
在理解这些全貌和本质之后,我们再次深究细节,那时便可将这些细节中的精华内化成自己的认知,而不仅仅只是一种知识了。