Linux 内核里的“智能指针”【转】

转自:http://blog.jobbole.com/88279/

众所周知,C/C++语言本身并不支持垃圾回收机制,虽然语言本身具有极高的灵活性,但是当遇到大型的项目时,繁琐的内存管理往往让人痛苦异常。现代的C/C++类库一般会提供智能指针来作为内存管理的折中方案,比如STL的auto_ptr,Boost的Smart_ptr库,QT的QPointer家族,甚至是基于C语言构建的GTK+也通过引用计数来实现类似的功能。Linux内核是如何解决这个问题呢?同样作为C语言的解决方案,Linux内核采用的也是引用计数的方式。如果您更熟悉C++,可以把它类比为Boost的shared_ptr,或者是QT的QSharedPointer。

在Linux内核里,引用计数是通过 struct kref 结构来实现的。在介绍如何使用 kref 之前,我们先来假设一个情景。假如您开发的是一个字符设备驱动,当设备插上时,系统自动建立一个设备节点,用户通过文件操作来访问设备节点。

如上图所示,最左边的绿色框图表示实际设备的插拔动作,中间黄色的框图表示内核中设备对象的生存周期,右边蓝色的框图表示用户程序系统调用的顺序。如果用户程序正在访问的时候设备突然被拔掉,驱动程序里的设备对象是否立刻释放呢?如果立刻释放,用户程序执行的系统调用一定会发生内存非法访问;如果要等到用户程序close之后再释放设备对象,我们应该怎么来实现?kref就是为了解决类似的问题而生的。

kref的定义非常简单,其结构体里只有一个原子变量。


1

2

3

struct kref {

 atomic_t refcount;

};

Linux内核定义了下面三个函数接口来使用kref:


1

2

3

void kref_init(struct kref *kref);

void kref_get(struct kref *kref);

int kref_put(struct kref *kref, void (*release) (struct kref *kref));

我们先通过一段伪代码来了解一下如何使用kref。


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

struct my_obj

{

 int val;

 struct kref refcnt;

};

 

struct my_obj *obj;

 

void obj_release(struct kref *ref)

{

 struct my_obj *obj = container_of(ref, struct my_obj, refcnt);

 kfree(obj);

}

 

device_probe()

{

 obj = kmalloc(sizeof(*obj), GFP_KERNEL);

 kref_init(&obj->refcnt);

}

 

device_disconnect()

{

 kref_put(&obj->refcnt, obj_release);

}

 

.open()

{

 kref_get(&obj->refcnt);

}

 

.close()

{

 kref_put(&obj->refcnt, obj_release);

}

在这段代码里,我们定义了obj_release来作为释放设备对象的函数,当引用计数为0时,这个函数会被立刻调用来执行真正的释放动作。我们先在device_probe里把引用计数初始化为1,当用户程序调用open时,引用计数又会被加1,之后如果设备被拔掉,device_disconnect会减掉一个计数,但此时refcnt还不是0,设备对象obj并不会被释放,只有当close被调用之后,obj_release才会执行。

看完伪代码之后,我们再来实战一下。为了节省篇幅,这个实作并没有建立一个字符设备,只是通过模块的加载和卸载过程来对感受一下kref。


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

#include <linux/kernel.h>

#include <linux/module.h>

 

struct my_obj {

 int val;

 struct kref refcnt;

};

 

struct my_obj *obj;

 

void obj_release(struct kref *ref)

{

 struct my_obj *obj = container_of(ref, struct my_obj, refcnt);

 printk(KERN_INFO "obj_release\n");

 kfree(obj);

}

 

static int __init kreftest_init(void)

{

 printk(KERN_INFO "kreftest_init\n");

 obj = kmalloc(sizeof(*obj), GFP_KERNEL);

 kref_init(&obj->refcnt);

 return 0;

}

 

static void __exit kreftest_exit(void)

{

 printk(KERN_INFO "kreftest_exit\n");

 kref_put(&obj->refcnt, obj_release);

 return;

}

 

module_init(kreftest_init);

module_exit(kreftest_exit);

 

MODULE_LICENSE("GPL");

通过kbuild编译之后我们得到kref_test.ko,然后我们顺序执行以下命令来挂载和卸载模块。

sudo insmod ./kref_test.ko

sudo rmmod kref_test

此时,系统日志会打印出如下消息:

kreftest_init

kreftest_exit

obj_release

这正是我们预期的结果。

有了kref引用计数,即使内核驱动写的再复杂,我们对内存管理也应该有信心了吧。

接下来主要介绍几点使用kref时的注意事项。

Linux内核文档kref.txt罗列了三条规则,我们在使用kref时必须遵守。

规则一:

If you make a non-temporary copy of a pointer, especially if it can be passed to another thread of execution, you must increment the refcount with kref_get() before passing it off;

规则二:

When you are done with a pointer, you must call kref_put();

规则三:

If the code attempts to gain a reference to a kref-ed structure without already holding a valid pointer, it must serialize access where a kref_put() cannot occur during the kref_get(), and the structure must remain valid during the kref_get().

对于规则一,其实主要是针对多条执行路径(比如另起一个线程)的情况。如果是在单一的执行路径里,比如把指针传递给一个函数,是不需要使用kref_get的。看下面这个例子:


1

2

3

4

5

6

7

8

9

10

11

12

13

kref_init(&obj->ref);

 

// do something here

// ...

 

kref_get(&obj->ref);

call_something(obj);

kref_put(&obj->ref);

 

// do something here

// ...

 

kref_put(&obj->ref);

您是不是觉得call_something前后的一对kref_get和kref_put很多余呢?obj并没有逃出我们的掌控,所以它们确实是没有必要的。

但是当遇到多条执行路径的情况就完全不一样了,我们必须遵守规则一。下面是摘自内核文档里的一个例子:


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

struct my_data

{

 .

 .

 struct kref refcount;

 .

 .

};

 

void data_release(struct kref *ref)

{

 struct my_data *data = container_of(ref, struct my_data, refcount);

 kfree(data);

}

 

void more_data_handling(void *cb_data)

{

 struct my_data *data = cb_data;

 .

 . do stuff with data here

 .

 kref_put(&data->refcount, data_release);

}

 

int my_data_handler(void)

{

 int rv = 0;

 struct my_data *data;

 struct task_struct *task;

 data = kmalloc(sizeof(*data), GFP_KERNEL);

 if (!data)

 return -ENOMEM;

 kref_init(&data->refcount);

 

 kref_get(&data->refcount);

 task = kthread_run(more_data_handling, data, "more_data_handling");

 if (task == ERR_PTR(-ENOMEM)) {

 rv = -ENOMEM;

 goto out;

 }

 

 .

 . do stuff with data here

 .

 out:

 kref_put(&data->refcount, data_release);

 return rv;

}

因为我们并不知道线程more_data_handling何时结束,所以要用kref_get来保护我们的数据。

注意规则一里的那个单词“before”,kref_get必须是在传递指针之前进行,在本例里就是在调用kthread_run之前就要执行kref_get,否则,何谈保护呢?

对于规则二我们就不必多说了,前面调用了kref_get,自然要配对使用kref_put。

规则三主要是处理遇到链表的情况。我们假设一个情景,如果有一个链表摆在你的面前,链表里的节点是用引用计数保护的,那你如何操作呢?首先我们需要获得节点的指针,然后才可能调用kref_get来增加该节点的引用计数。根据规则三,这种情况下我们要对上述的两个动作串行化处理,一般我们可以用mutex来实现。请看下面这个例子:


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

static DEFINE_MUTEX(mutex);

static LIST_HEAD(q);

struct my_data

{

 struct kref refcount;

 struct list_head link;

};

 

static struct my_data *get_entry()

{

 struct my_data *entry = NULL;

 mutex_lock(&mutex);

 if (!list_empty(&q)) {

 entry = container_of(q.next, struct my_q_entry, link);

 kref_get(&entry->refcount);

 }

 mutex_unlock(&mutex);

 return entry;

}

 

static void release_entry(struct kref *ref)

{

 struct my_data *entry = container_of(ref, struct my_data, refcount);

 

 list_del(&entry->link);

 kfree(entry);

}

 

static void put_entry(struct my_data *entry)

{

 mutex_lock(&mutex);

 kref_put(&entry->refcount, release_entry);

 mutex_unlock(&mutex);

}

这个例子里已经用mutex来进行保护了,假如我们把mutex拿掉,会出现什么情况?记住,我们遇到的很可能是多线程操作。如果线程A在用container_of取得entry指针之后、调用kref_get之前,被线程B抢先执行,而线程B碰巧又做的是kref_put的操作,当线程A恢复执行时一定会出现内存访问的错误,所以,遇到这种情况一定要串行化处理。

我们在使用kref的时候要严格遵循这三条规则,才能安全有效的管理数据。

时间: 2024-12-21 20:55:48

Linux 内核里的“智能指针”【转】的相关文章

Linux 内核里的数据结构——双向链表

Linux 内核里的数据结构--双向链表 Linux 内核中自己实现了双向链表,可以在 include/linux/list.h 找到定义.我们将会首先从双向链表数据结构开始介绍内核里的数据结构.为什么?因为它在内核里使用的很广泛,你只需要在 free-electrons.com 检索一下就知道了. 首先让我们看一下在 include/linux/types.h 里的主结构体: struct list_head { struct list_head *next, *prev; }; 你可能注意到

Linux 内核里的数据结构——基数树

Linux 内核里的数据结构--基数树 正如你所知道的,Linux内核提供了许多不同的库和函数,它们实现了不同的数据结构和算法.在这部分,我们将研究其中一种数据结构--基数树Radix tree.在 Linux 内核中,有两个文件与基数树的实现和API相关: include/linux/radix-tree.h lib/radix-tree.c 让我们先说说什么是 基数树 吧.基数树是一种 压缩的字典树compressed trie ,而字典树是实现了关联数组接口并允许以键值对 方式存储值的一种

Linux内核里的数据结构——位数组

Linux 内核中的位数组和位操作 除了不同的基于链式和树的数据结构以外,Linux 内核也为位数组(或称为位图(bitmap))提供了 API.位数组在 Linux 内核里被广泛使用,并且在以下的源代码文件中包含了与这样的结构搭配使用的通用 API: lib/bitmap.c include/linux/bitmap.h 除了这两个文件之外,还有体系结构特定的头文件,它们为特定的体系结构提供优化的位操作.我们将探讨 x86_64 体系结构,因此在我们的例子里,它会是 arch/x86/incl

Linux 内核里的数据结构——位数组

Linux 内核中的位数组和位操作 除了不同的基于链式和树的数据结构以外,Linux 内核也为位数组(或称为位图bitmap)提供了 API.位数组在 Linux 内核里被广泛使用,并且在以下的源代码文件中包含了与这样的结构搭配使用的通用 API: lib/bitmap.c include/linux/bitmap.h 除了这两个文件之外,还有体系结构特定的头文件,它们为特定的体系结构提供优化的位操作.我们将探讨x86_64 体系结构,因此在我们的例子里,它会是 arch/x86/include

Linux内核里的DebugFS

DebugFS,顾名思义,是一种用于内核调试的虚拟文件系统,内核开发者通过debugfs和用户空间交换数据.类似的虚拟文件系统还有procfs和sysfs等,这几种虚拟文件系统都并不实际存储在硬盘上,而是Linux内核运行起来后才建立起来. 通常情况下,最常用的内核调试手段是printk.但printk并不是所有情况都好用,比如打印的数据可能过多,我们真正关心的数据在大量的输出里不是那么一目了然;或者我们在调试时可能需要修改某些内核变量,这种情况下printk就无能为力,而如果为了修改某个值重新

Linux内核剖析 之 内核同步

主要内容     1.内核请求何时以交错(interleave)的方式执行以及交错程度如何.     2.内核所实现的基本同步机制.     3.通常情况下如何使用内核提供的同步机制. 内核如何为不同的请求服务     哪些服务?     ====>>>     为了更好地理解内核是如何执行的,我们把内核看做必须满足两种请求的侍者:一种请求来自顾客,另一种请求来自数量有限的几个不同的老板.对于不同的请求,侍者采用如下的策略:     1.老板提出请求时,如果侍者空闲,则侍者开始为老板服务

深度剖析linux内核万能--双向链表,Hash链表模版

我们都知道,链表是数据结构中用得最广泛的一种数据结构,对于数据结构,有顺序存储,数组就是一种.有链式存储,链表算一种.当然还有索引式的,散列式的,各种风格的说法,叫法层出不穷,但是万变不离其中,只要知道什么场合用什么样的数据结构,那就行了. 那么,标题说的内核万能链表,其实就是内核链表,它到底和我们平常大学学的数据结构的链表有什么不同呢??内核链表,是在linux内核里的一种普遍存在的数据结构,比如内核调度算法中有这样的结构,摄像头驱动程序,wifi模块,G_sensor等等,用到链表的东西实在

解析Linux内核的基本的模块管理与时间管理操作---超时处理【转】

转自:http://www.jb51.net/article/79960.htm 这篇文章主要介绍了Linux内核的基本的模块管理与时间管理操作,包括模块加载卸载函数的使用和定时器的用法等知识,需要的朋友可以参考下   内核模块管理Linux设备驱动会以内核模块的形式出现,因此学会编写Linux内核模块编程是学习linux设备驱动的先决条件. Linux内核的整体结构非常庞大,其包含的组件非常多.我们把需要的功能都编译到linux内核,以模块方式扩展内核功能. 先来看下最简单的内核模块 ? 1

Linux内核【链表】整理笔记(1)

转自:http://blog.chinaunix.net/uid-23069658-id-4576255.html 我们都知道Linux内核里的双向链表和学校里教给我们的那种数据结构还是些不一样.Linux采用了一种更通用的设计,将链表以及其相关操作函数从数据本身进行剥离,这样我们在使用链表的时候就不用自己去实现诸如节点的插入.删除.遍历等操作了.当然,Linux也是从2.1.x内核开始才对链表进行了这样的统一,和我们目前看到的样子几乎差不多: 点击(此处)折叠或打开 struct list_h