前情提要
上面我们做好了文件系统实现的基础,现在我们开始实现文件系统。
一、文件系统概念
UNIX文件系统比较先进,它将文件以索引结构来组织,避免了访问某一数据块需要从头把其前所有数据块再遍历一次的缺点。采用索引结构的文件系统,文件中的块依然可以分散到不连续的零散空间中,保留了磁盘高利用率的优点,更重要的是文件系统为每个文件的所有块建立了一个索引表,索引表就是块地址数组,每个数组元素就是块的地址,数组元素下标是文件块的索引,第n个数组元素指向文件中的第n个块,这样访问任意一个块的时候,只要从索引表中获得块地址就可以了,速度大大提升。
包含此索引表的索引结构称为inode,即index node,索引结点,用来索引、跟踪一个文件的所有块。强调下,inode是文件索引结构组织形式的具体体现,必须为每个文件都单独配备一个这样的元信息数据结构,因此在UINX文件系统中,一个文件必须对应一个inode,磁盘中有多少文件就有多少inode。
1.1、inode结构
inode 的结构如下
可以看到,inode节点就相当于文件的内容,其中包含了这个文件的属性,包含12个直接块指针,和三个间接块指针。
1.2、目录项
在Linux中,目录和文件都用inode来表示,因此目录也是文件,只是目录是包含文件的文件。为了表述清楚这两种文件,我们这里称目录为目录文件,一般意义上的文件称为普通文件。在Linux中,只要是文件就一定会有个与之匹配的inode。按理说,既然同一种inode同时表示目录和普通文件,这说明在inode中它们是没区别的,那文件系统是如何区分目录和文件呢?
在磁盘上的文件系统中,没有一种专门称为目录的数据结构,磁盘上有的只是inode。inode用于描述一个文件实体的数据块,至于该数据块中记录的是什么,这并不是inode决定的,inode也不必关心它是什么。
区分该inode是普通文件,还是目录文件,唯一的地方只能是数据块本身的内容了。如果该inode表示的是普通文件,此inode指向的数据块中的内容应该是普通文件自己的数据。如果该inode表示的是目录文件,此inode指向的数据块中的内容应该是该目录下的目录项。本文只会支持目录文件和普通文件(不会存在管道文件、socket之类),因此目录中要么是普通文件的目录项,要么是目录文件的目录项。
不管文件是普通文件,还是目录文件,它总会存在于某个目录中,所有的普通文件或目录文件都存在于根目录’/'之下,根目录是所有目录的父目录。
这里还有一个问题,根目录在哪里?只有目录中保存着这个目录下文件的信息,例如这个文件属于什么文件,这个文件对应的inode节点在哪儿。所以目录必须有个根,也就是根目录,而且根目录还必须是已知的位置。这个位置就保存在超级块中。
其结构如下
1.3、超级块与文件系统布局
每个文件都有个inode,所有的inode都放在inode数组中,请问,inode数组在哪里?大小是多少?
根目录的地址是固定写死的,但每个分区都有自己的根目录,其地址并不统一,怎么找到根目录地址?
我们需要在某个固定地方去获取文件系统元信息的配置,这个地方就是超级块,超级块是保存文件系统元信息的元信息。超级块中的属性以及硬盘的布局如下
图中只是一个分区文件系统元信息的布局,其他各分区中是同构的,咱们也按照这种布局来设计自己的文件系统。
二、创建文件系统
2.1、超级块结构
/* 超级块 */
struct super_block {
uint32_t magic; // 用来标识文件系统类型,支持多文件系统的操作系统通过此标志来识别文件系统类型
uint32_t sec_cnt; // 本分区总共的扇区数
uint32_t inode_cnt; // 本分区中inode数量
uint32_t part_lba_base; // 本分区的起始lba地址
uint32_t block_bitmap_lba; // 块位图本身起始扇区地址
uint32_t block_bitmap_sects; // 扇区位图本身占用的扇区数量
uint32_t inode_bitmap_lba; // i结点位图起始扇区lba地址
uint32_t inode_bitmap_sects; // i结点位图占用的扇区数量
uint32_t inode_table_lba; // i结点表起始扇区lba地址
uint32_t inode_table_sects; // i结点表占用的扇区数量
uint32_t data_start_lba; // 数据区开始的第一个扇区号
uint32_t root_inode_no; // 根目录所在的I结点号
uint32_t dir_entry_size; // 目录项大小,现在是32字节
uint8_t pad[460]; // 加上460字节,凑够512字节1扇区大小
} __attribute__ ((packed));
2.2、inode结构
/* inode结构 */
struct inode {
uint32_t i_no; // inode编号
uint32_t i_size; // 当此inode是文件时,i_size是指文件大小,若此inode是目录,i_size是指该目录下所有目录项大小之和
uint32_t i_open_cnts; // 记录此文件被打开的次数
uint32_t user_id; // 文件所属用户id
uint64_t ctime; // inode上一次变动时间
uint64_t mtime; // 文件内容上一次变动时间
uint64_t atime; // 文件上一次打开时间
uint32_t privilege; // 权限,可读可写可执行 1-7
bool write_deny; // 写文件不能并行,进程写文件前检查此标识
uint32_t i_sectors[13]; // i_sectors[0-11]是直接块, i_sectors[12]用来存储一级间接块指针
struct list_elem inode_tag;
};
2.3、目录和目录项结构
/* 目录结构 */
struct dir {
struct inode* inode;
uint32_t dir_pos; // 记录在目录内的偏移
uint8_t dir_buf[512]; // 目录的数据缓存
};
/* 目录项结构 */
struct dir_entry {
char filename[MAX_FILE_NAME_LEN]; // 普通文件或目录名称
uint32_t i_no; // 普通文件或目录对应的inode编号
enum file_types f_type; // 文件类型
};
2.4、文件系统类型、打开文件训练
/* 文件类型 */
enum file_types {
FT_UNKNOWN, // 不支持的文件类型
FT_REGULAR, // 普通文件
FT_DIRECTORY // 目录
};
/* 打开文件的选项 */
enum oflags {
O_RDONLY, // 只读
O_WRONLY, // 只写
O_RDWR, // 读写
O_CREAT = 4 // 创建
};
2.5、创建文件系统
如果检测到默认的分区存在文件系统,那么不做处理,加载这个文件系统。
如果检测到默认的分区不存在文件系统,那么初始化这个分区,也就是在这个分区上创建文件系统
/* 格式化分区,也就是初始化分区的元信息,创建文件系统 */
static void partition_format(struct partition* part) {
// 导引块占一个块
uint32_t boot_sector_sects = 1;
// 超级块占一个块
uint32_t super_block_sects = 1;
// inode位图占的块数,这里也是一个块
uint32_t inode_bitmap_sects = DIV_ROUND_UP(MAX_FILES_PER_PART, BITS_PER_SECTOR);
// inode占的块数
uint32_t inode_table_sects = DIV_ROUND_UP(((sizeof(struct inode) * MAX_FILES_PER_PART)), SECTOR_SIZE);
// 已使用的块数
uint32_t used_sects = boot_sector_sects + super_block_sects + inode_bitmap_sects + inode_table_sects;
// 空闲块数
uint32_t free_sects = part->sec_cnt - used_sects;
// 空闲块位图占据的块数
uint32_t block_bitmap_sects = DIV_ROUND_UP(free_sects, BITS_PER_SECTOR);
// 空闲块位图长度
uint32_t block_bitmap_bit_len = DIV_ROUND_UP((free_sects - block_bitmap_sects), BITS_PER_SECTOR);
/* 超级块初始化 */
struct super_block sb;
sb.magic = SUPER_BLOCK_MAGIC;
sb.sec_cnt = part->sec_cnt;
sb.inode_cnt = MAX_FILES_PER_PART;
sb.part_lba_base = part->start_lba;
// 第0块是引导块,第一块是超级块,之后是空闲块位图
sb.block_bitmap_lba = sb.part_lba_base + 2;
sb.block_bitmap_sects = block_bitmap_sects;
sb.inode_bitmap_lba = sb.block_bitmap_lba + sb.block_bitmap_sects;
sb.inode_bitmap_sects = inode_bitmap_sects;
sb.inode_table_lba = sb.inode_bitmap_lba + sb.inode_bitmap_sects;
sb.inode_table_sects = inode_table_sects;
sb.data_start_lba = sb.inode_table_lba + sb.inode_table_sects;
sb.root_inode_no = 0;
sb.dir_entry_size = sizeof(struct dir_entry);
printk("%s info:\n", part->name);
printk("magic:0x%x\n \
part_lba_base:0x%x\n \
all_sectors:0x%x\n \
inode_cnt:0x%x\n \
block_bitmap_lba:0x%x\n \
block_bitmap_sectors:0x%x\n \
inode_bitmap_lba:0x%x\n \
inode_bitmap_sectors:0x%x\n \
inode_table_lba:0x%x\n \
inode_table_sectors:0x%x\n \
data_start_lba:0x%x\n", \
sb.magic, \
sb.part_lba_base, \
sb.sec_cnt, \
sb.inode_cnt, \
sb.block_bitmap_lba, \
sb.block_bitmap_sects, \
sb.inode_bitmap_lba, \
sb.inode_bitmap_sects, \
sb.inode_table_lba, \
sb.inode_table_sects, \
sb.data_start_lba);
// 拿到硬盘的指针
struct disk* hd = part->my_disk;
// 将超级块写入本分区的第一扇区
ide_write(hd, part->start_lba + 1, &sb, 1);
// 超级块的lba
printk(" super_block_lba:0x%x\n", part->start_lba + 1);
// 找出数据量最大的元信息,用其尺寸做存储缓冲区
uint32_t buf_size = (sb.block_bitmap_sects >= sb.inode_bitmap_sects ? sb.block_bitmap_sects : sb.inode_bitmap_sects);
buf_size = (buf_size >= sb.inode_table_sects ? buf_size : sb.inode_table_sects) * SECTOR_SIZE;
// 申请的内存由内存管理系统清0后返回
uint8_t* buf = (uint8_t*)sys_malloc(buf_size);
// 将块位图初始化并写入sb.block_bitmap_lba,第0个块留给根目录
buf[0] |= 0x01;
uint32_t block_bitmap_last_byte = block_bitmap_bit_len / 8;
uint8_t block_bitmap_last_bit = block_bitmap_bit_len % 8;
uint32_t last_size = SECTOR_SIZE - (block_bitmap_last_byte % SECTOR_SIZE);
// 先将位图最后一字节到其所在的扇区的结束全置为1,即超出实际块数的部分直接置为已占用
memset(&buf[block_bitmap_last_byte], 0xff, last_size);
// 再将上一步中覆盖的最后一字节内的有效位重新置0
for (uint8_t bit_idx = 0; bit_idx <= block_bitmap_last_bit; bit_idx++) {
buf[block_bitmap_last_byte] &= ~(1 << bit_idx);
}
// 写入块位图
ide_write(hd, sb.block_bitmap_lba, buf, sb.block_bitmap_sects);
// 清空缓冲区
memset(buf, 0, buf_size);
// 第0个inode节点是根目录
buf[0] |= 0x01;
// 写入inode节点位图,这里直接写入的原因是一共就支持4096个节点,正好一个扇区
ide_write(hd, sb.inode_bitmap_lba, buf, sb.inode_bitmap_sects);
// 清空缓冲区
memset(buf, 0, buf_size);
// 将缓冲区指正改为指向inode节点
struct inode* inode = (struct inode*)buf;
// 修改第0个inode的节点大小
inode->i_size = sb.dir_entry_size * 2;
// 修改第0个inode的节点编号
inode->i_no = 0;
// 修改第0个inode的第一个扇区指针
inode->i_sectors[0] = sb.data_start_lba;
// 修改第0个inode的时间
inode->ctime = get_time();
inode->mtime = get_time();
inode->atime = get_time();
// 修改第0个inode的权限
inode->privilege = 4;
// 写入inode数组
ide_write(hd, sb.inode_table_lba, buf, sb.inode_table_sects);
// 写入根目录的两个目录项.和..
// 清空缓冲区
memset(buf, 0, buf_size);
// 目录项指正指向buf
struct dir_entry* p_de = (struct dir_entry*)buf;
// 初始化当前目录
memcpy(p_de->filename, ".", 1);
p_de->i_no = 0;
p_de->f_type = FT_DIRECTORY;
p_de++;
// 初始化当前目录的父目录
memcpy(p_de->filename, "..", 2);
p_de->i_no = 0; // 根目录的父目录依然是根目录自己
p_de->f_type = FT_DIRECTORY;
// 将目录项写入硬盘
ide_write(hd, sb.data_start_lba, buf, 1);
// 完成了一个分区的全部初始化工作,释放buf
printk(" root_dir_lba:0x%x\n", sb.data_start_lba);
printk("%s format done\n", part->name);
sys_free(buf);
}
整个初始化过程的前半部分就是超级块初始化,空闲块位图初始化,inode位图初始化,inode表初始化。也就是整个文件系统的信息的一个初始化过程。
后半部分就是根目录的初始化了,包括创建一个inode作为根目录,根目录中填充两个目录项,一个是 .
一个是 ..
。
2.6、文件系统初始化
虽然我们支持12个分区,但并不表示硬盘中存在12个分区,因此在进行格式化分区之前,先判断分区是否存在,这是通过分区的sec_cnt是否为0来判断的,之所以可以用此变量来判断,原因是分区part所在的硬盘作为全局数组channels的内嵌成员,全局变量会被初始化为0。我们在扫描分区表的时候会把分区的信息写到part中,因此只要分区不存在,分区part中任意成员的值都会是0,只是我们这里用sec_cnt来判断而已。
// sb_buf用来存储从硬盘上读入的超级块
struct super_block* sb_buf = (struct super_block*)sys_malloc(SECTOR_SIZE);
for (uint8_t channel_no = 0; channel_no < channel_cnt; channel_no++) {
for (uint8_t dev_no = 0; dev_no < 2; dev_no++) {
// 跨过存放操作系统的主盘
if (dev_no == 0) continue;
// 拿到硬盘指针
struct disk* hd = &channels[channel_no].devices[dev_no];
// 拿到分区指针
struct partition* part = hd->prim_parts;
for (uint8_t part_idx = 0; part_idx < 12; part_idx++) {
// 4个主分区处理完了就开始处理四个逻辑分区
if (part_idx == 4) part = hd->logic_parts;
// 如果分区存在
if (part->sec_cnt != 0) {
// 初始化buf
memset(sb_buf, 0, SECTOR_SIZE);
// 读出分区的超级块,根据魔数是否正确来判断是否存在文件系统
ide_read(hd, part->start_lba + 1, sb_buf, 1);
// 如果魔数正确,那么说明分区已经正确初始化
if (sb_buf->magic == SUPER_BLOCK_MAGIC) {
printk("%s has filesystem\n", part->name);
}
// 魔数不正确,直接初始化分区
else {
printk("formatting %s`s partition %s......\n", hd->name, part->name);
partition_format(part);
}
}
// 下一个分区
part++;
}
}
}
// 释放buf
sys_free(sb_buf);
}
2.7、仿真
可以看到,五个分区初始化完成
三、挂载分区
Windows 系统的分区盘符简单明了,C、D、E 盘直接摆在那,用不用都看得到。而Linux中却大不相同,分区使用的时候可以单独“拿”出来,不用的时候还可以“收”起来。
Linux 内核所在的分区是默认分区,自系统启动后就以该分区为默认分区,该分区的根目录是固定存在的,要想使用其他新分区的话,需要用mount命令手动把新的分区挂载到默认分区的某个目录下,这就是上面所说的“拿”出来。尽管其他分区都有自己的根目录,但是默认分区的根目录才是所有分区的父目录,因此挂载分区之后,整个路径树就像一串葡萄。分区不用的时候还可以通过umount命令卸载,这就是上面所说的“收”起来。
但是我们这里简单起见,不做那么复杂的操作,毕竟操作系统还不是在文件系统上呢。所以我们要实现的挂载很简单,直接选择待操作的分区。
/* 在分区链表中找到名为part_name的分区,并将其指针赋值给cur_part */
static bool mount_partition(struct list_elem* pelem, int arg) {
// 获得分区名
char* part_name = (char*)arg;
// 获得链表遍历的分区
struct partition* part = elem2entry(struct partition, part_tag, pelem);
// 如果找到了链表中的分区
if (!strcmp(part->name, part_name)) {
// 默认情况下的分区改为当前分区
cur_part = part;
// 拿到当前分区的硬盘指针
struct disk* hd = cur_part->my_disk;
// sb_buf用来存储从硬盘上读入的超级块
struct super_block* sb_buf = (struct super_block*)sys_malloc(SECTOR_SIZE);
// 分区的超级块指针指向一块空白区域
cur_part->sb = (struct super_block*)sys_malloc(sizeof(struct super_block));
// 初始化buf
memset(sb_buf, 0, SECTOR_SIZE);
// 读入超级块
ide_read(hd, cur_part->start_lba + 1, sb_buf, 1);
// 把sb_buf中超级块的信息复制到分区的超级块sb中
memcpy(cur_part->sb, sb_buf, sizeof(struct super_block));
// 将块位图读入内存
cur_part->block_bitmap.bits = (uint8_t*)sys_malloc(sb_buf->block_bitmap_sects * SECTOR_SIZE);
if (cur_part->block_bitmap.bits == NULL) {
PANIC("alloc memory failed!");
}
cur_part->block_bitmap.btmp_bytes_len = sb_buf->block_bitmap_sects * SECTOR_SIZE;
ide_read(hd, sb_buf->block_bitmap_lba, cur_part->block_bitmap.bits, sb_buf->block_bitmap_sects);
// 将inode位图读入内存
cur_part->inode_bitmap.bits = (uint8_t*)sys_malloc(sb_buf->inode_bitmap_sects * SECTOR_SIZE);
if (cur_part->inode_bitmap.bits == NULL) {
PANIC("alloc memory failed!");
}
cur_part->inode_bitmap.btmp_bytes_len = sb_buf->inode_bitmap_sects * SECTOR_SIZE;
ide_read(hd, sb_buf->inode_bitmap_lba, cur_part->inode_bitmap.bits, sb_buf->inode_bitmap_sects);
// 初始化以打开inode链表
list_init(&cur_part->open_inodes);
// 打印挂载成功
printk("mount %s done!\n", part->name);
// 使list_traversal停止遍历
return true;
}
// 使list_traversal继续遍历
return false;
}
// 确定默认的操作分区
char default_part[8] = "sdb1";
// 挂载分区
list_traversal(&partition_list, mount_partition, (int)default_part);
3.1、仿真
四、文件描述符
Linux中所有文件操作都基于文件描述符,为此咱们简短介绍一下这个概念。
4.1、文件描述符概念
文件是用inode来表示的,,用于描述文件的存储、权限等。但inode是操作系统为自己的文件系统准备的数据结构,它用于文件存储的管理,与用户关系不大,咱们要介绍的文件描述符才是面向用户的。
文件描述符即file descriptor,但凡叫“描述符”的数据结构都用于描述一个对象,文件描述符所描述的对象是文件的操作。为了搞清楚文件描述符的意义,咱们先看下它与inode的区别和联系。
还是拿Linux举例,读写文件的本质是:先通过文件的inode找到文件数据块的扇区地址,随后读写该扇区,从而实现了文件的读写。几乎所有的操作系统都允许一个进程同时、多次、打开同一个文件(并不关闭),同样该文件也可以被多个不同的进程同时打开。为实现文件任意位置的读写,执行读写操作时可以指定偏移量作为该文件内的起始地址,此偏移量相当于文件内的指针。也就是说,该文件每被打开一次,文件读写的偏移量都可以任意指定,即对同一个文件的多次读写都是各自操作各自的,任意一个文件操作的偏移量都不影响其他文件操作的偏移量。注意,这里所说的是“互不影响”是指文件内的“偏移量”,并不是文件内容,因为文件内容是共享的,对文件内容的修改必然会相互影响。另外,通常情况下对文件的操作都只是读写文件的一小部分数据,即使想读写整个文件的话,由于一般文件的体积都较大,而内存缓冲区较小,所以文件的读写并不是一次性从头到尾操作整个文件,往往是通过连续多次的小数据量读写完成的,下一次读写的位置必须以上一次的读写位置为起始,因此,文件系统需要把任意时刻的偏移量记录下来。
问题来了,偏移量应该记录在哪里呢?inode中肯定不记录这些与文件操作相关的数据,人家只把有限的空间记录与存储相关的信息。为解决这个问题,Linux提供了称为“文件结构”的数据结构(也称为file结构),专门用于记录与文件操作相关的信息,每次打开一个文件就会产生一个文件结构,多次打开该文件就为该文件生成多个文件结构,各自文件操作的偏移量分别记录在不同的文件结构中,从而实现了“即使同一个文件被同时多次打开,各自操作的偏移量也互不影响”的灵活性。
文件结构如下
/* 文件结构 */
struct file {
uint32_t fd_pos; // 记录当前文件操作的偏移地址,以0为起始,最大为文件大小-1
uint32_t fd_flag; // 权限
struct inode* fd_inode; // 当前文件对应的inode节点指针
};
/* 标准输入输出描述符 */
enum std_fd {
stdin_no, // 0 标准输入
stdout_no, // 1 标准输出
stderr_no // 2 标准错误
};
/* 位图类型 */
enum bitmap_type {
INODE_BITMAP, // inode位图
BLOCK_BITMAP // 空闲块位图
};
Linux把所有的“文件结构”组织到一起形成数组统一管理,该数组称为文件表。
先总结一下,inode用于描述文件存储相关信息,文件结构用于描述“文件打开”后,文件读写偏移量等信息。文件与inode一一对应,一个文件仅有一个inode,一个inode仅对应一个文件。一个文件可以被多次打开,因此一个inode可以有多个文件结构,多个文件结构可以对应同一个inode。
4.2、进程的文件描述符
文件描述符只是个整数,准确地说,它是PCB中文件描述符数组元素的下标,只不过此数字并不用来表示“数量”,而是用来表示“位置”,它是位于进程PCB中的文件描述符数组的元素的下标,而文件描述符数组元素中的信息又指向文件表中的某个文件结构。
在Linux中每个进程都有单独的、完全相同的一套文件描述符,因此它们与其他进程的文件描述符互不干涉,这些文件描述符被组织成文件描述符数组统一管理。
打开一个文件时会产生一个文件结构,这要是该任务同时打开N多个文件,文件表可就大了。通常情况下为避免文件表占用过大的内存空间,文件结构的数量必须是有限的,这就是进程可打开的最大文件数有限的原因(在Linux中可用ulimit命令来修改)。
文件描述符数组中的前3个都是标准的文件描述符,如文件描述符0表示标准输入,1表示标准输出,2表示标准错误。为什么文件描述符是数字,而不是像其他描述符那样,是个具有多个成员属性的复合数据结构?原因有两个。
(1)为了使各进程可打开的文件数是一样的,各进程必须有独立的、大小完全一样的一套文件描述符数组,而不能所有进程共享同一套文件描述符数组。
(2)文件结构中包含进程执行文件操作的偏移量,它属于与各个任务单独绑定的资源,因此最好放在PCB中管理。但当进程打开的文件数增多的时候,文件表(由文件结构组成的数组)占用的空间较大,而PCB占用的内存通常就是几个页框,Linux中的PCB也只是2页框大小,咱们PCB只占用1页框。
结合以上两个原因,通常情况下不会把“真正的、庞大的”文件表塞到狭小的PCB中,一般只要在PCB中建立个文件描述符数组就可以了,该数组成员不需要是真正的文件结构(至少包括3个成员)
Linux中的文件操作通常是先用open打开文件以获取该文件的文件描述符,然后将文件描述符作为参数传给read或write等函数对该文件进行读写操作。
其过程如下:
现在梳理一下上图:某进程把文件描述符作为参数提交给文件系统时,文件系统用此文件描述符在该进程的PCB中的文件描述符数组中索引对应的元素,从该元素中获取对应的文件结构的下标,用该下标在文件表中索引相应的文件结构,从该文件结构中获取文件的inode,最终找到了文件的数据块。提示一下,若该inode在inode队列中不存在,此时会多一个处理过程:文件系统会从硬盘上将该inode加载到inode队列中,并使文件结构中的fd_inode指向它。
结束语
这是文件系统的第一部分,下一部分将介绍文件系统对应的文件操作的相关函数。
老规矩,本节的代码地址:https://github.com/lyajpunov/os
标签:文件,--,分区,文件系统,bitmap,part,sb,手写,inode From: https://blog.csdn.net/weixin_43903639/article/details/137561835