博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
linux 2.6 互斥锁的实现-源码分析
阅读量:5923 次
发布时间:2019-06-19

本文共 4319 字,大约阅读时间需要 14 分钟。

http://blog.csdn.net/tq02h2a/article/details/4317211

 

看了看linux 2.6 kernel的源码,下面结合代码来分析一下在X86体系结构下,互斥锁的实现原理。

代码分析

1. 首先介绍一下互斥锁所使用的数据结构:

struct mutex {
 引用计数器
 1: 所可以利用。
 小于等于0:该锁已被获取,需要等待
 atomic_t  count;
 
 自旋锁类型,保证多cpu下,对等待队列访问是安全的。
 spinlock_t  wait_lock;
 
 等待队列,如果该锁被获取,任务将挂在此队列上,等待调度。
 struct list_head wait_list;
};

2. 互斥锁加锁函数

void inline __sched mutex_lock(struct mutex *lock)
调用了宏:
__mutex_fastpath_lock(&lock->count, __mutex_lock_slowpath);

宏的定义:

将mutex数据结构中,引用计数器减1,如果不为负数就返回,
如果为负数,需要调用函数:__mutex_lock_slowpath,接下来我们再来
分析这个函数,我们先来分析一下这个宏。
#define __mutex_fastpath_lock(count, fail_fn)   /
do {        /
 unsigned int dummy;     /
        /
 检查参数类型的有效性
 typecheck(atomic_t *, count);    /
 typecheck_fn(void (*)(atomic_t *), fail_fn);  /
        /
  输入,输出寄存器为eax,输入为count,输出为dummy,仅将eax的值减1
 asm volatile(LOCK_PREFIX "   decl (%%eax)/n"  /
       "   jns 1f /n"    /
       如果减后为负数,调用回调函数,尝试阻塞该进程
       "   call " #fail_fn "/n"   /
       "1:/n"     /
       : "=a" (dummy)    /
       : "a" (count)    /
       : "memory", "ecx", "edx");   /
} while (0)

3. 回调函数

static noinline int __sched __mutex_lock_killable_slowpath(atomic_t *lock_count)
{
  通过结构的成员地址,获取该结构地址
 struct mutex *lock = container_of(lock_count, struct mutex, count);

  该函数在后面做详细介绍

 return __mutex_lock_common(lock, TASK_KILLABLE, 0, _RET_IP_);
}

4. 阻塞进程真正获取锁的地方

static inline int __sched
__mutex_lock_common(struct mutex *lock, long state, unsigned int subclass,
         unsigned long ip)
{
  获取当前进程的task_struct的地址
 struct task_struct *task = current;
 struct mutex_waiter waiter;
 unsigned int old_val;
 unsigned long flags;

  对该锁上的等待队列加自旋锁,防止多个CPU的情况。

 spin_lock_mutex(&lock->wait_lock, flags);

 将该任务添加到该锁的等待队列上

 list_add_tail(&waiter.list, &lock->wait_list);
 waiter.task = task;
 
 用一条汇编指令对count进行付值,lock->count=-1,保证该操作在一个cpu上是原子的
 old_val = atomic_xchg(&lock->count, -1);
 如果lock->count之前的值为1,说明是可以获取锁的
 if (old_val == 1)
  goto done;

 lock_contended(&lock->dep_map, ip);

 for (;;) {

  在这个地方,又尝试去获取锁,处理方式如上。
  old_val = atomic_xchg(&lock->count, -1);
  if (old_val == 1)
   break;

  如果该进程是可中断的,或者该进程是可kiilable的,如果有信号

  被递送到该任务,那么该进程将从等待队列中移除
  if (unlikely((state == TASK_INTERRUPTIBLE &&
     signal_pending(task)) ||
         (state == TASK_KILLABLE &&
     fatal_signal_pending(task)))) {
   mutex_remove_waiter(lock, &waiter,
         task_thread_info(task));
   mutex_release(&lock->dep_map, 1, ip);
   spin_unlock_mutex(&lock->wait_lock, flags);

   debug_mutex_free_waiter(&waiter);

   返回被信号中断
   return -EINTR;
  }
  __set_task_state(task, state);

  如果还不能获取所,则将自旋锁解除,当从schedule返回时再次获取自旋锁,

  重复如上操作。
  spin_unlock_mutex(&lock->wait_lock, flags);
  schedule();
  spin_lock_mutex(&lock->wait_lock, flags);
 }

表示已经获取了锁

done:
 lock_acquired(&lock->dep_map);
将该任务从等待队列中删除
 mutex_remove_waiter(lock, &waiter, task_thread_info(task));
 debug_mutex_set_owner(lock, task_thread_info(task));

如果等待队列为空将lock->count置为0

 if (likely(list_empty(&lock->wait_list)))
  atomic_set(&lock->count, 0);

 spin_unlock_mutex(&lock->wait_lock, flags);

 debug_mutex_free_waiter(&waiter);

 return 0;

}

5. 解锁过程

void __sched mutex_unlock(struct mutex *lock)
{
 解锁后lock->count将从0变为1
 __mutex_fastpath_unlock(&lock->count, __mutex_unlock_slowpath);
}

该宏是对引用计数器实行加1操作,如果加后小于等于0,说明该等待队列

上还有任务需要获取锁。调用__mutex_unlock_slowpath函数。
#define __mutex_fastpath_unlock(count, fail_fn)   /
do {        /
 unsigned int dummy;     /
        /
 typecheck(atomic_t *, count);    /
 typecheck_fn(void (*)(atomic_t *), fail_fn);  /
        /
 asm volatile(LOCK_PREFIX "   incl (%%eax)/n"  /
       "   jg 1f/n"    /
       "   call " #fail_fn "/n"   /
       "1:/n"     /
       : "=a" (dummy)    /
       : "a" (count)    /
       : "memory", "ecx", "edx");   /
} while (0)

该函数调用了__mutex_unlock_slowpath函数。

static noinline void
__mutex_unlock_slowpath(atomic_t *lock_count)
{
 __mutex_unlock_common_slowpath(lock_count, 1);
}

static inline void

__mutex_unlock_common_slowpath(atomic_t *lock_count, int nested)
{
  通过结构的成员地址,获取该结构地址
 struct mutex *lock = container_of(lock_count, struct mutex, count);
 unsigned long flags;

 为等待队列加自旋锁

 spin_lock_mutex(&lock->wait_lock, flags);
 mutex_release(&lock->dep_map, nested, _RET_IP_);
 debug_mutex_unlock(lock);

 if (__mutex_slowpath_needs_to_unlock())

  atomic_set(&lock->count, 1);

 先看看等待队列是不是为空了,如果已经为空,不需要做任何处理,否则

 将该等待队列上面的队首进程唤醒
 if (!list_empty(&lock->wait_list)) {
  struct mutex_waiter *waiter =
    list_entry(lock->wait_list.next,
        struct mutex_waiter, list);

  debug_mutex_wake_waiter(lock, waiter);

  wake_up_process(waiter->task);

 }

 debug_mutex_clear_owner(lock);

 spin_unlock_mutex(&lock->wait_lock, flags);

}

总结:互斥锁的实现,实际上就是一把锁维护了一个等待队列和一个引用计数器,当获取锁

之前,先对引用计数器减1操作,如果为非负,则可以获取锁进入临界区。否则需要将该任务
挂在该等待对列上。

你可能感兴趣的文章
Android 打包签名 从生成keystore到完成签名
查看>>
Objective-C 编程语言官网文档(十二)-线程
查看>>
Visio绘制系统图
查看>>
如何让oracle的select强制走索引
查看>>
【面试虐菜】—— JAVA面试题(1)
查看>>
Oracle事务
查看>>
文档在线预览的实现
查看>>
jqueryui.position.js源代码分析
查看>>
一个奇妙的java坑:Long 类型的比较
查看>>
java基础---->摘要算法的介绍 (转)
查看>>
mysql中binlog_format模式与配置详解
查看>>
互联网协议入门
查看>>
iOS上文本绘制的几种方法
查看>>
利用 autoconf 和 automake 生成 Makefile 文件
查看>>
support.SerializationFailedException: Failed to deserialize payload.
查看>>
Wireshark使用注意事项
查看>>
Pig系统分析(7)-Pig有用工具类
查看>>
C 标准库 - <float.h>
查看>>
Http 请求处理流程
查看>>
Web系统开发构架再思考-前后端的完全分离
查看>>