linux驱动开发--中断:工作者队列实现中断底半部

1、工作队列

工作队列(work queue)是linux kernel中将工作推后执行的一种机制;这种机制和tasklet不同之处在于工作队列是把推后的工作交由一个内核线程去执行,因此工作队列的优势就在于它允许重新调度甚至睡眠。

工作队列数据类型定义,在<linux/workqueue.h>中

struct work_struct{
atomic_long_t data;//记录工作状态和指向工作者线程的指针
struct list_head entry;//工作数据链成员
work_func_t func;//工作处理函数,由用户实现
}
typedef void (*work_func_t)(struct work_struct *work);//工作函数原型
struct delayed_work{//处理延迟执行的工作的结构体
struct work_struct work;//工作结构体
struct timer_list timer;//推后执行的定时器
}

工作队列操作:
初始化工作
INIT_WORK(struct work_struct *work, work_func_t func);初始化工作队列并制定工作队列处理函数
INIT_DELAYED_WORK(struct delayed_work *work, work_func_t func);初始化延迟工作队列并制定工作队列处理函数
调度工作
int schedule_work(struct work_struct *work);调度工作,即把工作处理函数提交给缺省的工作队列和工作者线程
int schedule_delayed_work(struct delayed_work *work, unsigned long delay);调度延迟工作,即把工作处理函数提交给缺省的工作队列和工作者线程,并制定延迟时间(同内核定时器延迟处理)
刷新工作队列
void flush_schedule_work(void);刷新缺省工作队列,此函数会一直等待,知道队列中的所有工作都被执行完成
取消延迟工作
int cancel_delayed_work(struct delay_work *work);取消缺省工作队列中处于等待状态的延迟工作
取消工作
int cancel_work_sync(struct work_struct *work);取消缺省工作队列中处于等待状态的工作,如果工作处理函数已经开始执行,该函数会阻塞直到工作处理函数完成
工作者线程
工作者线程本质上是一个普通的内核线程,在默认情况下,每个cpu均有一个类型为“events“的工作者线程,当调用schedule_work时,这个工作者线程会被唤醒去执行工作链表上的所有工作。

创建工作队列
struct workqueue_struct *create_workqueue(const char *name);创建新的工作队列和相应的工作者线程,name用于该内核线程的命名
调度工作
int queue_work(struct workqueue_struct *wq, struct work_struct *work);调度工作,类似于schedule_work()函数;将制定工作work提交给指定工作队列wq
调度延迟工作
int queue_delayed_work(struct workqueue_struct *wq, struct work_struct *work, unsigned long delay);调度工作,类似于schedule_work()函数,将指定延迟工作work提交给指定工作队列wq,并指定延迟时间(同内核定时器延迟处理)
刷新工作队列
void flush_workqueue(struct workqueue_struct *wq);刷新指定工作队列wq,此函数会一直等待,直到队列中所有工作都被执行完成
销毁工作队列
void destroy_workqueue(struct workqueue_struct *wq);销毁指定工作队列wq

/**
*Copyright (c) 2013.TianYuan
*All rights reserved.
*
*文件名称: irq.c
*文件标识: 工作者队列实现,登记底半部
*make menuconfig--- device drivers
*input keyboards ---s3c gpio keypad supports
#cat /proc/interrupts : 32(中断号) :intertupt_demo
*
*当前版本:1.0
*作者:wuyq
*
*取代版本:xxx
*原作者:xxx
*完成日期:2014-03-05
*/
#include <linux/init.h>
#include <linux/module.h>
#include <linux/fs.h>
#include <linux/cdev.h>
#include <linux/device.h>
#include <linux/slab.h>
#include <asm/uaccess.h>

#include <asm/gpio.h>
#include <plat/gpio-cfg.h>
#include <linux/spinlock_types.h>
#include <linux/sched.h>
#include <linux/poll.h>
#include <linux/interrupt.h>

MODULE_LICENSE("GPL");
#define CDD_MAJOR	200//cat /proc/devices找一个尚未使用的
#define CDD_MINOR	0
#define CDD_COUNT	10
dev_t dev = 0;
u32 cdd_major = 0;
u32 cdd_minor = 0;

struct class *dev_class = NULL;
#define BUF_SIZE	100
struct cdd_cdev{
	struct cdev cdev;
	struct device *dev_device;
	u8 led;

	char kbuf[BUF_SIZE];

	u32 data_len;//记录缓冲区中已经写入数据的长度
	//定义等待队列头
	wait_queue_head_t wqh;

};
//定义一个work
struct work_struct cdd_work;

struct cdd_cdev *cdd_cdevp = NULL;

unsigned long led_gpio_table[2] = {
	S5PV210_GPC1(3),//数字
	S5PV210_GPC1(4),
};

int cdd_open(struct inode* inode, struct file *filp)
{
	struct cdd_cdev *pcdevp = NULL;
	printk("enter cdd_open!\n");

	pcdevp = container_of(inode->i_cdev, struct cdd_cdev, cdev);
	printk("led = %d\n", pcdevp->led);

	/*获取信号量*/
	//down获取信号量不成功,会导致进程睡眠(第3个进程的时候)
	//down(&pcdevp->sem_open);
	if(down_interruptible(&pcdevp->sem_open)<0){
		return -1;
	}
	filp->private_data = pcdevp;
	//申请gpio管脚
	gpio_request(led_gpio_table[0], "GPC1_3");
	gpio_request(led_gpio_table[1], "GPC1_4");

	return 0;
}

int cdd_read(struct file *filp, char __user *buf, size_t count, loff_t *offset)
{
	int ret = 0;
	u32 pos = *offset;
	u32 cnt = count;

	struct cdd_cdev *cdevp = filp->private_data;
#if 0
	//定义并初始化一个等待队列
	DECLARE_WAITQUEUE(wq, current);
	//将等待队列添加到wqh指向的链表
	add_wait_queue(&pcdevp->wqh, &wq);
	//判断设备有没有数据供用户空间读,假设led不为0,表示有数据供用户空间读取
	if(pcdevp->led == 0){
		printk("no data for reading! sleep...\n");
		//设置当前线程为睡眠状态
		set_current_state(TASK_INTERRUPTIBLE);
		schedule();//内核调度cpu的算法
		printk("have data for reading!\n");
	}
	//从指定的链表中删除等待队列
	remove_wait_queue(&pcdevp->wqh, &wq);
#endif
	wait_event_interruptible(pcdevp->wqh, pcdevp->led != 0); 

	//printk("enter cdd_read!\n");
	if(cnt > (cdevp->data_len-pos) ){
		cnt = cdevp->data_len - pos;
	}

	ret = copy_to_user(buf, cdevp->kbuf+pos, cnt);
	//printk("kernel kbuf content:%s\n", cdevp->kbuf);
	*offset += cnt;

	pcdevp->led = 0;

	return ret;
}

int cdd_write(struct file *filp, const char __user *buf, size_t count, loff_t *offset)
{
	int ret = 0;
	struct cdd_cdev *cdevp = filp->private_data;
	u32 pos = *offset;
	u32 cnt = count;

	//printk("enter cdd_write!\n");
	if(cnt > (BUF_SIZE - pos) ){
		cnt = BUF_SIZE - pos;
	}
	ret = copy_from_user(cdevp->kbuf+pos, buf, cnt);
	*offset += cnt;
	if(*offset > cdevp->data_len){
		cdevp->data_len = *offset;
	}
	pcdevp->led = 1;
	//唤醒等待队列头中的一个等待队列
	wake_up_interruptible(&pcdevp->wqh);

	return ret;
}

int cdd_ioctl(struct inode *inode, struct file *filp, unsigned int cmd, unsigned long data)
{
	//printk("enter cdd_ioctl!\n");
	switch(cmd){
		case 1://点亮灯
			//设置管脚为输出功能
			//参数:1.要设置的管脚编号2.默认的输出值 0低电平1高电平
			gpio_direction_output(led_gpio_table[data], 0);
			//禁止内部上拉
			s3c_gpio_setpull(led_gpio_table[data], SEC_GPIO_PULL_NONE);
			//设置输出值
			gpio_set_value(led_gpio_table[data], 1);

			break;
		case 0://熄灭灯

			//设置管脚为输出功能
			//参数:1.要设置的管脚编号2.默认的输出值 0低电平1高电平
			gpio_direction_output(led_gpio_table[data], 0);
			//禁止内部上拉
			s3c_gpio_setpull(led_gpio_table[data], SEC_GPIO_PULL_NONE);
			//设置输出值
			gpio_set_value(led_gpio_table[data], 0);

			break;
		default:
			return -EINVAL;
	}

	return 0;
}

int cdd_release(struct inode *inode, struct file *filp)
{
	struct cdd_cdev *pcdevp = filp->private_data;
	printk("enter cdd_release!\n");

	gpio_free(led_gpio_table[0]);
	gpio_free(led_gpio_table[1]);
	up(&pcdevp->sem_open);
	return 0;
}

loff_t cdd_llseek(struct file *filp, loff_t offset, int whence)
{
	struct cdd_cdev *pcdevp = filp->private_data;
	loff_t newpos = 0;
	switch(whence){
		case SEEK_SET:
			newpos = offset;
			break;
		case SEEK_CUR:
			newpos = filp->f_pos + offset;
			break;
		case SEEK_END:
			newpos = pcdevp->data_len + offset;
			break;
		default:
			return -EINVAL;//无效的参数
	}

	if( newpos<0 || newpos>= BUF_SIZE ){
		return -EINVAL;
	}
	filp->f_pos = newpos;
	return newpos;
}

unsigned int cdd_poll(struct file *filp, struct poll_table_struct *wait)
{
	unsigned int mask = 0;
	struct cdd_cdev pcdevp = filp->private_data;
	printk("enter cdd_poll!\n");
	poll_wait(filp, &pcdep->wqh, wait);
	//led不为0即可读
	if(pcdevp->led){
		mask = POLLIN | POLLRDNORM;
	}
	return mask;
}

struct file_operations cdd_fops = {
	.owner = THIS_MODULE,
	.open = cdd_open,
	.read = cdd_read,
	.write = cdd_write,
	.ioctl = cdd_ioctl,
	.release = cdd_release,
	.llseek = cdd_llseek,
	.poll = cdd_poll,
};

void cdd_work_func(struct work_struct *work)
{
	int i = 10000000;
	printk("enter cdd_work_func!\n");
	while(i--);
}

irqreturn_t cdd_isr(int irq, void *dev_id)
{
	printk("occur up key press or release!\n");
	//登记底半部
	schedule_work(&cdd_work);
	printk("exit cdd_isr!\n");
	return IRQ_HANDLED;
}

int __init cdd_init(void)
{
	int ret = 0;
	int i = 0;

	if(cdd_major){
		dev = MKDEV(CDD_MAJOR, CDD_MINOR);//生成设备号
		//注册设备号;1、要注册的起始设备号2、连续注册的设备号个数3、名字
		ret = register_chrdev_region(dev, CDD_COUNT, "cdd_demo");
	}else{
		// 动态分配设备号
		ret = alloc_chrdev_region(&dev, cdd_minor, CDD_COUNT, "cdd_demo02");
	}

	if(ret < 0){
		printk("register_chrdev_region failed!\n");
		goto failure_register_chrdev;
	}
	//获取主设备号
	cdd_major = MAJOR(dev);
	printk("cdd_major = %d\n", cdd_major);

	cdd_cdevp = kzalloc(sizeof(struct cdd_cdev)*CDD_COUNT, GFP_KERNEL);
	if(IS_ERR(cdd_cdevp)){
		printk("kzalloc failed!\n");
		goto failure_kzalloc;
	}
	/*创建设备类*/
	dev_class = class_create(THIS_MODULE, "cdd_class");
	if(IS_ERR(dev_class)){
		printk("class_create failed!\n");
		goto failure_dev_class;
	}
	for(i=0; i<CDD_COUNT; i++){
		/*初始化cdev*/
		cdev_init(&(cdd_cdevp[i].cdev), &cdd_fops);
		/*添加cdev到内核*/
		cdev_add(&(cdd_cdevp[i].cdev), dev+i, 1);

		/* “/dev/xxx” */
		device_create(dev_class, NULL, dev+i, NULL, "cdd%d", i);

		cdd_cdevp[i].led = i;
		//初始化等待队列头
		init_waitqueue_head(&cdd_cdevp[i].wqh);
	}
	//初始化work
	INIT_WORK(&cdd_work, cdd_work_func);

	//注册中断
	request_irq(IRQ_EINT0, cdd_isr, IRQF_TRIGGER_FALLING  | IRQF_TRIGGER_RISING, "interrupt_demo", NULL);

	return 0;
failure_dev_class:
	kfree(cdd_cdevp);
failure_kzalloc:
	unregister_chrdev_region(dev, CDD_COUNT);
failure_register_chrdev:
	return ret;
}

void __exit cdd_exit(void)
{
/*逆序消除*/
	int i = 0;
	flush_work(&cdd_work);

	free_irq(IRQ_EINT0, NULL);

	for(; i < CDD_COUNT; i++){
		device_destroy(dev_class, dev+i);
		cdev_del(&(cdd_cdevp[i].cdev));
		//cdev_del(&((cdd_cdevp+i)->cdev));
	}
	class_destroy(dev_class);
	kfree(cdd_cdevp);
	unregister_chrdev_region(dev, CDD_COUNT);

}	

module_init(cdd_init);
module_exit(cdd_exit);
时间: 2024-10-30 04:10:36

linux驱动开发--中断:工作者队列实现中断底半部的相关文章

Linux驱动开发必看详解神秘内核(完全转载)

Linux驱动开发必看详解神秘内核 完全转载-链接:http://blog.chinaunix.net/uid-21356596-id-1827434.html   IT168 技术文档]在开始步入Linux设备驱动程序的神秘世界之前,让我们从驱动程序开发人员的角度看几个内核构成要素,熟悉一些基本的内核概念.我们将学习内核定时器.同步机制以及内存分配方法.不过,我们还是得从头开始这次探索之旅.因此,本章要先浏览一下内核发出的启动信息,然后再逐个讲解一些有意思的点. 2.1 启动过程 图2-1显示

红帽-台式机x64 架构linux 驱动开发的安装问题

问题描述 台式机x64 架构linux 驱动开发的安装问题 我们知道Linux下的驱动开发可以静态加载也可以动态加载的.本人想在台式机上面的小红帽 下静态安装驱动.每次动态加载太费事了,但是貌似没有嵌入式Linux 下面的简单.有哪些方法可以实现系统自动加载,难道只有修改启动脚本么? 请大牛不吝赐教!跪拜!三客优! 解决方案 自己编译一个系统内核吧,这样想怎么弄就怎么弄了 或者查阅红帽的开发手册,看看有木有说明 解决方案二: 谢谢,网上可以下载到红帽的内核么 台式机上面怎么放系统里面启动呢? 解

《Android深度探索(卷1):HAL与驱动开发》——1.5节如何学习Linux驱动开发

1.5 如何学习Linux驱动开发 Android深度探索(卷1):HAL与驱动开发 由于Linux的内核版本更新较快(稳定版本1至3月更新一次,升级版本1至2周更新一次),每一次内核的变化就意味着Linux驱动的变化(就算不需要修改驱动代码,至少也得在新的Linux内核版本下重新编译),所以Linux内核的不断变化对从事Linux驱动开发的程序员影响比较大.不过这对于学习Linux驱动开发来说影响相对较小.因为不管是哪个版本的Linux内核,开发Linux驱动的方法和步骤基本相同,只要掌握了一

linux驱动开发--中断:按键中断

1.中断定义 中断是指cpu在执行过程中,出现了某些突发事件时cpu必须暂停执行当前的程序,转去处理突发事件,处理完毕后cpu又返回原程序被中断的位置并继续执行. 2.中断分类 3.Linux中断处理程序结构 a.在Linux系统中,中断处理程序分解为两个半部:顶半部(TopHalf)和底半部(BottomHalt). b.顶半部:完成尽可能少的比较紧急的功能,往往只是简单的读取寄存器中的中断状态并清除中断标志后就进行"登记中断"的工作,也就是将底半部处理程序挂到该设备的底半部执行队列

linux驱动开发--中断:tasklet实现中断底半部

1.在Linux 中实现中断底半部的机制主要是: tasklet.工作队列.软中断 2.tasklet 定义在<linux/interrupt.h>中tasklet定义 DECLARE_TASKLET(taskletname, tasklet_func, data); taskletname:待定义的tasklet名字 tasklet_func:tasklet处理函数 data:待传入tasklet处理函数的参数 tasklet处理函数 void tasklet_func(unsigned l

linux驱动开发--字符设备:静态分配设备号

字符设备(char device)         采用字节流方式访问的设备称为字符设备,通常智能采用顺序访问方式,也有极少数可以前后移动访问指针的设备(如:帧捕捉卡等设备).系统标准字符设备,例如:字符中断.串口等设备.常见待开发设备驱动的字符设备,例如:触摸屏.键盘.视频捕捉设备.音频设备等. 设备号 主设备号     用于标识设备类型,内核代码根据该号码对应设备文件和对应的设备驱动程序 次设备号     用于标识通类型的不同设备个体,驱动程序根据该号码辨别具体操作的是哪个设备个体. 设备号

linux驱动开发--字符设备:原子操作

解决竞态问题的途径是保证对共享资源的互斥访问,所谓互斥访问是指一个执行单元在访问共享资源的时候,其他的执行单元被禁止访问. 访问共享资源的代码区域称谓临界区(critical sections),临界区需要以某种互斥机制加以保护.中断屏蔽.原子操作.自旋锁和信号量是Linux设备驱动中可采用的互斥途径. 原子操作 原子操作指的是在执行过程中不会被别的代码路径所中断的操作. Linux内核停工了一系列函数来实现内核中的原子操作.这些函数分为两类,分别针对位和整型变量进行原子操作.他们的共同点是在任

linux驱动开发--字符设备:内核等待队列

      在Linux驱动程序中,可以使用等待队列(wait queue)来实现阻塞进程的唤醒.等待队列可以用来同步对系统资源的访问. 1.定义和初始化队列头wait_queue_head_t wqh; init_waitqueue_head(wait_queue_head_t *wqh); 2.定义和初始化等待队列DECLARE_WAITQUEUE(name, tsk); 3.添加.移除等待队列add_wait_queue(wait_queue_head_t *q, wait_queue_t

linux驱动开发--字符设备:信号量

信号量的使用 信号量(semaphore)是用于保护临界区的一种常用方法,它的使用和自旋锁类似.与自旋锁相同,只有得到信号量的进程才能执行临界区代码.但是与自旋锁不同的是当获取不到信号量时,进程不会原地打转而是进入休眠等待状态. 关于信号量的操作函数: 1.定义信号量 struct semaphore sem; 2.初始化信号量 sema_init(struct semaphore *sem, int val);//用于初始化信号量并设置sem为val init_MUTEX(struct sem