码迷,mamicode.com
首页 > 系统相关 > 详细

Linux块设备驱动详解

时间:2018-03-17 16:15:47      阅读:259      评论:0      收藏:0      [点我收藏+]

标签:用户空间   开头   函数参数   移位   ota   架构   块设备   nts   padding   

<机械硬盘>
a:磁盘结构
-----传统的机械硬盘一般为3.5英寸硬盘,并由多个圆形蝶片组成,每个蝶片拥有独立的机械臂和磁头,每个堞片的圆形平面被划分了不同的同心圆,每一个同心圆称为一个磁道,位于最外面的道的周长最长称为外道,最里面的道称为内道,通常硬盘厂商会将圆形蝶片最靠里面的一些内道(速度较慢,影响性能)封装起来不用;道又被划分成不同的块单元称为扇区,每个道周长不同,现代硬盘不同长度的道划分出来的扇区数也是不相同的,而磁头不工作的时候一般位于内道,如果追求响应时间,则数据可存储在硬盘的内道,如果追求大的吞吐量,则数据应存储在硬盘的外道;
技术分享图片 
注意:;一个弧道被划分成多个段,每一个段就是一个扇区
b:磁盘访问
------SATA硬盘实现的是串行ATA协议,ATA下盘命令中记录有LBA(Logic Block Address)起始地址和扇区数;LBA地址实际上是一个ATA协议逻辑地址,硬盘的固件会解析收到的ATA命令,并将要访问的LBA地址映射至某个磁道中的某个物理块即扇区。操作系统暂可认为LBA地址就是硬盘的物理地址。
c:扇区
------硬盘的基本访问单位,扇区的大小一般是512B(对于现在的有些磁盘的扇区>512B,比如光盘的一个扇区就是2048B,Linux将其看成4个扇区,无非就是需要完成4次的读写)。
d:块
------扇区是硬件传输数据的基本单位,硬件一次传输一个扇区的数据到内存中。但是和扇区不同的是,块是虚拟文件系统传输数据的基本单位。在Linux中,块的大小必须是2的幂,但是不能超过一个页的大小(4k)。(在X86平台,一个页的大小是4094个字节,所以块大小可以是512,1024,2048,4096
e:段
------主要为了做scatter/gather DMA操作使用,同一个物理页面中的在硬盘存储介质上连续的多个块组成一个。段的大小只与块有关,必须是块的整数倍。所以块通常包括多个扇区,段通常包括多个块,物理段通常包括多个段;在内核中由结构struct bio_vec来描述,多个段的信息存放于struct bio结构中的bio_io_vec指针数组中,段数组在后续的块设备处理流程中会被合并成物理段,段结构定义如下:
struct bio_vec {
       struct page      *bv_page;  // 段所在的物理页面结构,即bh->b_page
       unsigned int    bv_len;    // 段的字节数,即bh->b_size
       unsigned int    bv_offset;  // 段在bv_page页面中的偏移,即bh->b_data
};
f:文件块
------大小定义和文件系统块一样;只是相对于文件的一个偏移逻辑块,需要通过具体文件系统中的此文件对应的inode所记录的间接块信息,换算成对应的文件系统块;此做法是为了将一个文件的内容存于硬盘的不同位置,以提高访问速度;即一个文件的内容在硬盘是一般是不连续的;EXT2中,ext2_get_block()完成文件块到文件系统块的映射。
 
g:总结
------扇区磁盘的物理特性决定;块缓冲区由内核代码决定缓冲区决定,是块缓冲区大小的整数倍(但是不能超过一个页)。三者关系如下:
技术分享图片 
所以:扇区(512)≤块≤页(4096) 块=n*扇区(n为整数)
注意:段(struct bio_vec{})由多个块组成,一个段就是一个内存页(如果一个块是两个扇区大小,也就是1024B,那么一个段的大小可以是1024,2018,3072,4096,也就是说段的大小只与块有关,而且是整数倍)。Linux系统一次读取磁盘的大小是一个块,而不是一个扇区,块设备驱动由此得名。
 
<块设备处理过程>
a:linux 内核中,块设备将数据存储与固定的大小的块中,每个块都有自己的固定地址。Linux内核中块设备和其他模块的关系如下。
技术分享图片
a:块设备的处理过程涉及Linux内核中的很多模块,下面简单描述之间的处理过过程。
(1)当一个用户程序要向磁盘写入数据时,会发发出write()系统调用给内核。
(2)内核会调用虚拟文件系统相应的函数,将需要写入发文件描述符和文件内容指针传递给该函数。
(3)内核需要确定写入磁盘的位置,通过映射层知道需要写入磁盘的哪一块。
(4)根据磁盘的文件系统的类型,调用不同文件格式的写入函数,江苏数据发送给通用块层(比如ext2和ext3文件系统的写入函数是不同的,这些函数由内核开发者实现,驱动开发者不用实现这类函数)
(5)数据到达通用块层后,就对块设备发出写请求。内核利用通用块层的启动I/O调度器,对数据进行排序。
(6)同用块层下面是"I/O调度器"。调度器作用是把物理上相邻的读写合并在一起,这样可以加快访问速度。
(7)最后快设备驱动向磁盘发送指令和数据,将数据写入磁盘。
 
 

<基本概念>

a:块设备(block device)
-----是一种具有一定结构的随机存取设备,对这种设备的读写是按块进行的,他使用缓冲区来存放暂时的数据,待条件成熟后,从缓存一次性写入设备或者从设备一次性读到缓冲区。
b:字符设备(Character device)
---是一个顺序的数据流设备,对这种设备的读写是按字符进行的,而且这些字符是连续地形成一个数据流。他不具备缓冲区,所以对这种设备的读写是实时的。
<linux 块设备驱动架构图>
技术分享图片
 a:架构分析
1)struct bio
------当一个进程被Read时,首先读取cache 中有没有相应的文件,这个cache由一个buffer_head结构读取。如果没有,文件系统就会利用块设备驱动去读取磁盘扇区的数据。于是read()函数就会初始化一个bio结构体,并提交给通用块层。通常用一个bio结构体来对应一个I/O请求
(1)内核结构如下:
 
 
1 struct bio {
2 sector
_t bi_sector; /* 要传输的第一个扇区 */
3 struct bio
*bi_next; /* 下一个 bio */
4 struct block
_device*bi_bdev;
5 unsigned long bi
_flags; /* 状态、命令等 */
6 unsigned long bi
_rw; /* 低位表示 READ/WRITE,高位表示优先级*/
7
8 unsigned short bi
_vcnt; /* bio_vec 数量 */
9 unsigned short bi
_idx; /* 当前 bvl_vec 索引 */
10
11 /
* 执行物理地址合并后 sgement 的数目 */
12 unsigned short bi
_phys_segments;
13
14 unsigned int bi
_size;
15
16 /
* 为了明了最大的 segment 尺寸,我们考虑这个 bio 中第一个和最后一个
17 可合并的 segment 的尺寸 */
18 unsigned int bi
_hw_front_size;
19 unsigned int bi
_hw_back_size;
20
21 unsigned int bi
_max_vecs; /* 我们能持有的最大 bvl_vecs */
22 unsigned int bi
_comp_cpu; /* completion CPU */
23
24 struct bio
_vec *bi_io_vec; /* 实际的 vec 列表 */
25
26 bio
_end_io_t *bi_end_io;
27 atomic
_t bi_cnt;
28
29 void
*bi_private;
30 #if defined(CONFIG
_BLK_DEV_INTEGRITY)
31 struct bio
_integrity_payload *bi_integrity; /* 数据完整性 */
32 #endif
33
34 bio
_destructor_t *bi_destructor; /* 析构 */
35 };
(2)bio的核心是一个被称为bi_io_vec的数组,它由bio_vec组成(也就是说bio由许多bio_vec组成)。内核定义如下:
1 struct bio_vec {
2 struct page
*bv_page; /* 页指针 */
3 unsigned int bv
_len; /* 传输的字节数 */
4 unsigned int bv
_offset; /* 偏移位置 */
5 };
bio_vec描述一个特定的片段,片段所在的物理页,块在物理页中的偏移页,整个bio_io_vec结构表示一个完整的缓冲区。当一个块被调用内存时,要储存在一个缓冲区,每个缓冲区与一个块对应,所以每一个缓冲区独有一个对应的描述符,该描述符用buffer_head结构表示:
  • struct buffer_head 
  •     unsigned long b_state;                    /* buffer state bitmap (see above) */
  •     struct buffer_head *b_this_page;      /* circular list of pages buffers */
  •     struct page *b_page;                       /* the page this bh is mapped to */
  •  
  •     sector_t b_blocknr;                          /* start block number */
  •     size_t b_size;                                   /* size of mapping */
  •     char *b_data;                                  /* pointer to data within the page */
  •  
  •    struct block_device *b_bdev;
  •    bh_end_io_t *b_end_io;                   /* I/O completion */
  •   void *b_private;                              /* reserved for b_end_io */
  •   struct list_head b_assoc_buffers;     /* associated with another mapping */
  •   struct address_space *b_assoc_map;    /* mapping this buffer is
  •                                                              associated with */
  •    atomic_t b_count;                          /* users using this buffer_head */
  • };
(3)bio和buffer_head之间的使用关系
核心ll_rw_block函数:
  • void ll_rw_block(int rw, int nr, struct buffer_head *bhs[])
  • {
  •     int i;
  •  
  •     for (= 0; i < nr; i ) {
  •         struct buffer_head *bh = bhs[i];
  •  
  •         if (!trylock_buffer(bh))
  •             continue;
  •         if (rw == WRITE) {
  •             if (test_clear_buffer_dirty(bh)) {
  •                 bh->b_end_io = end_buffer_write_sync;
  •                 get_bh(bh);
  •                 submit_bh(WRITE, bh);
  •                 continue;
  •             }
  •         } else {
  •             if (!buffer_uptodate(bh)) {
  •                 bh->b_end_io = end_buffer_read_sync;
  •                 get_bh(bh);
  •                 submit_bh(rw, bh);
  •                 continue;
  •             }
  •         }
  •         unlock_buffer(bh);
  •     }
  • }
     
核心submit_bh()函数:
 
  • int submit_bh(int rw, struct buffer_head * bh)
  • {
  •     struct bio *bio;
  •     int ret = 0;
  •  
  •     BUG_ON(!buffer_locked(bh));
  •     BUG_ON(!buffer_mapped(bh));
  •     BUG_ON(!bh->b_end_io);
  •     BUG_ON(buffer_delay(bh));
  •     BUG_ON(buffer_unwritten(bh));
  •  
  •     /*
  •      * Only clear out a write error when rewriting
  •      */
  •     if (test_set_buffer_req(bh) && (rw & WRITE))
  •         clear_buffer_write_io_error(bh);
  •  
  •     /*
  •      * from here on down, its all bio -- do the initial mapping,
  •      * submit_bio -> generic_make_request may further map this bio around
  •      */
  •     bio = bio_alloc(GFP_NOIO, 1);
  •  
  •     bio->bi_sector = bh->b_blocknr * (bh->b_size >> 9);
  •     bio->bi_bdev = bh->b_bdev;
  •     bio->bi_io_vec[0].bv_page = bh->b_page;
  •     bio->bi_io_vec[0].bv_len = bh->b_size;
  •     bio->bi_io_vec[0].bv_offset = bh_offset(bh);
  •  
  •     bio->bi_vcnt = 1;
  •     bio->bi_idx = 0;
  •     bio->bi_size = bh->b_size;
  •  
  •     bio->bi_end_io = end_bio_bh_io_sync;
  •     bio->bi_private = bh;
  •  
  •     bio_get(bio);
  •     submit_bio(rw, bio);
  •  
  •     if (bio_flagged(bio, BIO_EOPNOTSUPP))
  •         ret = -EOPNOTSUPP;
  •  
  •     bio_put(bio);
  •     return ret;
  • }
这个函数主要是调用submit_bio,最终调用generic_make_request去完成将bio传递给驱动去处理。如下所示:
 
  • void generic_make_request(struct bio *bio)
  • {
  •     struct bio_list bio_list_on_stack;
  •  
  •     if (!generic_make_request_checks(bio))
  •         return;
  •  
  •  
  •     if (current->bio_list) {
  •         bio_list_add(current->bio_list, bio);
  •         return;
  •     }
  •  
  •     BUG_ON(bio->bi_next);
  •     bio_list_init(&bio_list_on_stack);
  •     current->bio_list = &bio_list_on_stack;
  •     do {
  •         struct request_queue *= bdev_get_queue(bio->bi_bdev);
  •  
  •         q->make_request_fn(q, bio);
  •  
  •         bio = bio_list_pop(current->bio_list);
  •     } while (bio);
  •     current->bio_list = NULL; /* deactivate */
  • }
     
这个函数主要是取出块设备相应的队列中的每个设备,在调用块设备驱动的make_request,如果没有指定make_request就调用内核默认的__make_request,这个函数主要作用就是调用I/O调度算法将bio合并,或插入到队列中合适的位置中去。
 
2)struct request
------提交工作由submit_bio()去完成,通用层在调用相应的设备IO调度器,这个调度器的调度算法,将这个bio合并到已经存在的request中,或者创建一个新的request,并将创建的插入到请求队列中。最后就剩下块设备驱动层来完成后面的所有工作。(Linux系统中,对块设备的IO请求,都会向块设备驱动发出一个请求,在驱动中用request结构体描述)
内核结构如下:
1 struct request {
2 struct list
_head queuelist;
3 struct call
_single_data csd;
4 int cpu;
5
6 struct request
_queue *q;
7
8 unsigned int cmd
_flags;
9 enum rq
_cmd_type_bits cmd_type;
10 unsigned long atomic
_flags;
11
12 /
* 维护 I/O submission BIO 遍历状态
13 * hard_开头的成员仅用于块层内部,驱动不应该改变它们
14 */
15
16 sector
_t sector; /* 要提交的下一个 sector */
17 sector
_t hard_sector; /* 要完成的下一个 sector */
18 unsigned long nr
_sectors; /* 剩余需要提交的 sector */
19 unsigned long hard
_nr_sectors; /*剩余需要完成的 sector */
20 /
* 在当前 segment 中剩余的需提交的 sector */
21 unsigned int current
_nr_sectors;
22
23 /
*在当前 segment 中剩余的需完成的 sector */
24 unsigned int hard
_cur_sectors;
25
26 struct bio
*bio;
27 struct bio
*biotail;
28
29 struct hlist
_node hash;
30 union {
31 struct rb
_node rb_node; /* sort/lookup */
32 void
*completion_data;
33 };
34
35 /
*
36 * I/O 调度器可获得的两个指针,如果需要更多,请动态分配
37 */
38 void
*elevator_private;
39 void
*elevator_private2;
40
41 struct gendisk
*rq_disk;
42 unsigned long start
_time;
43
44 /
* scatter-gather DMA 方式下 addr+len 对的数量(执行物理地址合并后)
45
*/
46 unsigned short nr
_phys_segments;
47
48 unsigned short ioprio;
49
50 void
*special;
51 char
*buffer;
52
53 int tag;
54 int errors;
55
56 int ref
_count;
57
58 unsigned short cmd
_len;
59 unsigned char
__cmd[BLK_MAX_CDB];
60 unsigned char
*cmd;
61
62 unsigned int data
_len;
63 unsigned int extra
_len;
64 unsigned int sense
_len;
65 void
*data;
66 void
*sense;
67
68 unsigned long deadline;
69 struct list
_head timeout_list;
70 unsigned int timeout;
71 int retries;
72
73 /
*
74 * 完成回调函数
75 */
76 rq
_end_io_fn *end_io;
77 void
*end_io_data;
78
79 struct request
*next_rq;
80 };
30 return 0;
31 out
_queue: unregister_blkdev(XXX_MAJOR, "xxx");
32 out: put
_disk(xxx_disks);
33 blk
_cleanup_queue(xxx_queue);
34
35 return -ENOMEM;
36 }
(3)请求队列初始化:
(3)-1:请求队列数据结构
技术分享图片
(3)-2:request_queue_t *blk_init_queue(request_fn_proc *rfn, spinlock_t *lock)
第一个参数是指向"请求处理函数"的指针,该函数直接和硬盘打交道,用来处理数据在内存和硬盘之间的传输。该函数整体的作用就是为了分配请求队列,并初始化。
(3)-3:typedef void (request_fn_proc)(struct reqest_queue *q)
该函数作为上述函数(request_queue_t *blk_init_queue(request_fn_proc *rfn,spinlock_t *lock))的参数,主要作用就是处理请求队列中的bio,完成数据在内存和硬盘之间的传递。(注意:该函数参数中的bio都是经过i/o调度器的
(3)-4:typedef int (make_request_fn)(struct request_queue *q,struct bio *bio)
该函数是的第一个参数是请求队列,第二个参数是bio,该函数的作用是根据bio生成一个request(所以叫制造请求函数)。
注意:在想不使用I/O调度器的时候,就应该在该函数中实现,对每一传入该函数的bio之间进行处理,完成数据在内存和硬盘的之间的传输,这样就可以不使用"request_fn_proc"函数了。(所以可以看出来,如果使用i/o调度器,make_request_fn函数是在request_fn_proc函数之前执行)
 
<I/O调度器的使用与否>
a:背景
------I/O调度器看起来可以提高访问速度,但是这是并不是最快的,因为I/O调度过程会花费很多时间。最快的方式就是不使用I/O调度器
b:请求队列和I/O调度器
------要脱离I/O调度器,就必须了解请求队列request_queue,因为I/O调度器和请求队列是绑定在一起的。其关系如下:
技术分享图片
 如山图所示,请求队列request_queue 中的elevator指针式指向I/O调度函数的。
 
b:通用块层函数调用关系(对bio的处理过程)
b-1:调用框图
 技术分享图片
b-2:具体分析
(1)当需要读写一个数据的时候,通用块层,会根据用户空间的请求,生成一个bio结构体。
(2)准备好bio后,会调用函数generic_make_request()函数,函数原形如下:
void generic_make_request(struct bio *bio)
(3)该函数会调用底层函数:
static inline void _generic_make_request(struct bio *bio);
(4)到这里会分层两种情况:
第一种,调用请求队列中自己定义的make_request_fn()函数,那问题来了,系统怎么知道这个自己定义函数在哪里呢?由内核函数blk_queue_make_request()函数指定,函数原形:
void blk_queue_make_request(struct request_queue *q,make_request_fn *mfn);
 
第二种,使用请求队列中系统默认__make_request()函数,函数原形“
static int __make_request(struct request_queue *q,struct bio *bio);
该函数会启动I/O调度器,对bio进行调度处理,bio结构或被合并到请求队列的一个请求结构的request中。最后调用request_fn_proc()将数据写入或读出块块设备。
 
c:使用I/O调度器和不使用I/O调度器
c-1:不使用i/o调度器(blk_alloc_queue())
bio的流程完全由驱动开发人员控制,要达到这个目的,必须使用函数blk_alloc_queue()来申请请求队列,然后使用函数blk_queue_make_requset()给bio指定具有request_fn_proc()功能的函数Virtual_blkdev_make_request来完成数据在内存和硬盘之间的传输(该函数本来是用来将bio加入request中的)。
static int Virtual_blkdev_make_request(struct requset_queue *q,structb bio *bio)
{
   //因为不使用I/O调度算法,直接在该函数中完成数据在内存和硬盘之间的数据传输,该函数
   //代替了request_fn_proc()函数的功能
   ............
}
Virtual_blkdev_queue = blk_alloc_queue(GFP_KERNEL)
if(!Virtual_blkdev_queue)
{
   ret=-ENOMEN;
   goto err_alloc_queue;
}
blk_queue_make_request(Virtual_blkdev_queue,Virtual_blkdev_make_request);
c-2:使用i/o调度器(blk_init_queue())
bio先经过__make_request()函数,I/O调度器,和request_fn_proc()完成内存和硬盘之间的数据传输。该过程使用函数blk_init_queue()函数完成队列的初始化,并指定request_fn_proc():
struct request_queue* blk_inti_queue(request_fn_proc *rfn,spinlock_t *lock)

<总结驱动框架>
技术分享图片
 a:块设备驱动加载过程
(1)使用alloc_disk()函数分配通用磁盘gendisk的结构体。
(2)通过内核函数register_blkdev()函数注册设备,该过程是一个可选过程。
   (也可以不用注册设备,驱动一样可以工作,该函数和字符设备的register_chrdev()函数相对应,对于大多数的块设备,第一个工作就是相内核注册自己,但是在Linux2.6以后,register_blkdev()函数的调用变得可选,内核中register_blkdev()函数的功能正在逐渐减少。基本上就只有如下作用:
1)分局major分配一个块设备号
2)在/proc/devices中新增加一行数据,表示块设备的信息
(3)根据是否需要I/O调度,将情况分为两种情况,一种是使用请求队列进行数据传输,一种是不使用请求队列进行数据传输。
(4)初始化gendisk结构体的数据成员,包括major,fops,queue等赋初值。
(5)使用add_disk()函数激活磁盘设备(当调用该函数后就可以对磁盘进行操作(访问),所以调用该函数之前必须所有的准备工作就绪)
b:块设备驱动卸载过程
技术分享图片
(1)使用del_gendisk()函数删除gendisk设备,并使用put_disk()删除对gendisk设备的引用;
(2)使用blk_clean_queue()函数清楚请求队列,并释放请求队列所占用的资源。
(3)如果在模块加载函数中使用register_blkdev()注册设备,那么就需要调用unregister_blkdev()函数注销设备并释放对设备的引用。
 
<块设备驱动代码示例(不使用I/O调度器)>
技术分享图片
技术分享图片
技术分享图片
技术分享图片
技术分享图片
技术分享图片
技术分享图片
制造请求函数(在这里完成数据的读写)
技术分享图片
技术分享图片
技术分享图片
 
卸载函数
技术分享图片
 
 

<wiz_tmp_tag id="wiz-table-range-border" contenteditable="false" style="display: none;">

Linux块设备驱动详解

标签:用户空间   开头   函数参数   移位   ota   架构   块设备   nts   padding   

原文地址:https://www.cnblogs.com/big-devil/p/8590007.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!