🍥 学到现在,其实我们已经能理解重入其实可以分为两种情况
① 常见的线程不安全的情况
② 常见的线程安全的情况
③ 常见不可重入的情况
④ 常见可重入的情况
提示 :不要被上面的一系列所弄晕,其实对应概念说的都是一回事
📌 可重入与线程安全联系
📌 可重入与线程安全区别
📌 注意:






#include <iostream>
#include <mutex>
#include <thread>
#include <vector>
#include <unistd.h>
// 定义两个共享资源(整数变量)和两个互斥锁
int shared_resource1 = 0;
int shared_resource2 = 0;
std::mutex mtx1, mtx2;
// ⼀个函数,同时访问两个共享资源
void access_shared_resources()
{
std::unique_lock<std::mutex> lock1(mtx1, std::defer_lock);
std::unique_lock<std::mutex> lock2(mtx2, std::defer_lock);
// 使⽤ std::lock 同时锁定两个互斥锁
std::lock(lock1, lock2);
// 现在两个互斥锁都已锁定,可以安全地访问共享资源
int cnt = 10000;
while (cnt--)
{
++shared_resource1;
++shared_resource2;
}
// 当离开 access_shared_resources 的作⽤域时,lock1 和 lock2 的析构函数会被自动调⽤
// 这会导致它们各⾃的互斥量被⾃动解锁
}
// 模拟多线程同时访问共享资源的场景
void simulate_concurrent_access()
{
std::vector<std::thread> threads;
// 创建多个线程来模拟并发访问
for (int i = 0; i < 10; ++i)
{
threads.emplace_back(access_shared_resources);
}
// 等待所有线程完成
for (auto &thread : threads)
{
thread.join();
}
// 输出共享资源的最终状态
std::cout << "Shared Resource 1: " << shared_resource1 << std::endl;
std::cout << "Shared Resource 2: " << shared_resource2 << std::endl;
}
int main()
{
simulate_concurrent_access();
return 0;
}一次申请

不一次申请



🔥 死锁的预防是通过破坏产生死锁的必要条件之一,是系统不会产生死锁。
🎐 互斥条件:只有对必须互斥使用的资源的争抢才会导致死锁。
如果把只能互斥使用的资源改造为允许共享使用,则系统不会进入死锁状态。比如:SPOOLing 技术。操作系统可以采用 SPOOLing 技术 把独占设备在逻辑上改造成共享设备。比如,用SPOOLing 技术 将打印机改造为共享设备..

💢 不剥夺条件:进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放。
破坏不剥夺条件
该策略的缺点
请求和保持条件:进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源又被其他进程占有,此时请求进程被阻塞,但又对自己己有的资源保持不放。
该策略实现起来简单,但也有明显的缺点:有些资源可能只需要用很短的时间,因此如果进程的整个运行期间都一直保持着所有资源,就会造成严重的资源浪费,资源利用率极低。另外,该策略也有可能导致某些进程饥饿。

循环等待条件:存在一种进程资源的循环等待链,链中的每一个进程已获得的资源同时被下一个进程所请求。
可采用顺序资源分配法。首先给系统中的资源编号,规定每个进程必须按编号递增的顺序请求资源同类资源(即编号相同的资源)一次申请完。
原理分析:一个进程只有已占有小编号的资源时,才有资格申请更大编号的资源。按此规则,已持有大编号资源的进程不可能逆向地回来申请小编号的资源,从而就不会产生循环等待的现象。

该策略的缺点:
避免死锁同样属于事先预防策略,并不是采取某种限制措施破坏死锁的必要条件,而是在资源动态分配过程中,防止系统进入不完全状态。
进程可以动态的申请资源,但是系统在进行资源分配之前,必须先计算此次分配的安全性。如果计算所得是安全的,则允许分配,但如果是不安全的,则让进程等待。而所谓的安全状态就是,系统可以按照某种进程的推进顺序
这里举了一个银行给BAT三家公司借钱的例子用来引出银行家算法

这时候如果将 30亿 借给了B公司,那么手里还有 10亿元,这 10亿 已经小于3家公司最小的最多还会借的钱数,没有公司能够达到提出的最大要求,这样银行的钱就会打水漂了!!!
如果是这种情况呢?

这样按照T->B->A的顺序借钱是没有问题的,是安全的。
按照A->T->B的顺序借钱也是没有问题的。
这样我们就会得到安全序列、不安全序列和死锁的关系了

注意:
(1)系统在某一时刻的安全状态可能不唯一,但这不影响对系统安全性的判断。
(2)安全状态是非死锁状态,而不安全状态并不一定是死锁状态。即系统处于安全状态一定可以避免死锁,而系统处于不安全状态则仅仅可能进入死锁状态。

原因是如果进入了不安全状态,但是没有进程去请求资源,并且有进程提前归还了一些资源,这样就不会死锁。
银行家算法是荷兰学者 Dijkstra 为银行系统设计的,以确保银行在发放现金贷款时,不会发生不能满足所有客户需要的情况。后来该算法被用在操作系统中,用于避免死锁。

银行家问题的本质:
要设法保证系统动态分配资源后不进入不安全状态,以避免可能产生的死锁。
即:每当进程提出资源请求且系统的资源能够满足该请求时,系统将判断如果满足此次资源请求,系统状态是否安全,如果判断结果为安全,则给该进程分配资源,否则不分配资源,申请资源的进程将阻塞。

当Pi发出资源请求后,系统按下述步骤进行检查:
1. 如果Requesti > Needi,则出错。
2. 如果Requesti>Available,则Pi 阻塞;
3. 系统试探把要求的资源分配给进程Pi,并修改下面数据结构中的数值:
Availablei=Availablei-Requesti;
Allocationi=Allocationi+Requesti;
Needi = Needi- Requesti;
4. 系统执行安全性算法,检查此次资源分配后,系统是否处于安全状态。
若安全,正式将资源分配给进程Pi,以完成本次分配;
否则,将试探分配作废,恢复原来的资源分配状态,让进程Pi等待。数据结构:
银行家算法步骤:
安全性算法步骤:
🧀 银行家算法从避免死锁的角度上说是非常有效的,但是,从某种意义上说,它缺乏实用价值,因为很少有进程能够在运行前就知道其所需资源的最大值,而且进程数也不是固定的,往往在不断地变化(如新用户登录或退出),况且原本可用的资源也可能突然间变成不可用(如磁带机可能坏掉)。因此,在实际中,如果有,也只有极少的系统使用银行家算法来避免死锁。
❤️🔥 死锁预防和避免算法,其实都是在进程分配资源的时候试加限制条件或者检测,但是如果系统为进程分配资源时不采取任何措施,则应该提供死锁检测和解除的手段。
为了能对系统是否已发生了死锁进行检测,必须:
🌮 如果系统中剩余的可用资源数足够满足进程的需求,那么这个进程暂时是不会阻塞的,可以顺利地执行下去。如果这个进程执行结束了把资源归还系统,就可能使某些正在等待资源的进程被激活,并顺利地执行下去。相应的,这些被激活的进程执行完了之后又会归还一些资源,这样可能又会激活另外一些阻塞的进程..
如果按上述过程分析,最终能消除所有边,就称这个图是 可完全简化的。此时一定没有发生死锁(相当于能找到一个安全序列)
死锁的检测可以利用资源分配图来分析,该数据结构包含如下的内容

检测死锁的算法如下:
🔥 在资源分配图中,找出既不阻塞(请求资源节点的数量足够)又不是孤点的进程pi ,该请求边所申请的数量小于等于下同已有的空闲资源数量。所有的连接该进程的边均满足上述的条件,则这个进程就可以运行直至完成。然后释放自己拥有的资源,消除进程的请求边和分配边,使后释放自己拥有的资源,消除进程的请求边和分配边之成为孤立的节点。如果所有的节点可以被消除与其相连的边,则成为该图是可完全简化的,而且一定不会发生死锁。


🎈 检查死锁的办法结论:由软件检查系统中由进程和资源构成的有向图是否构成一个或多个环路,若是,则存在死锁,否则不存在。
由于死锁是系统中的恶性小概率事件,死锁检测程序的多次执行往往都不会调用一次死锁解除程序,而这却增加了系统开销,因此在设计操作系统时需要权衡检测精度与时间开销。
一旦检测出死锁的发生,就应该立刻解除死锁,死锁的检测就是通过简化资源分配图。解除死锁的主要方法:
(1)撤消进程法
「撤消全部死锁进程」:强制杀死该进程,剥夺这些进程的资源。虽然实现简单,但是付出的代价可能会很大,部分进程很可能运行了很长时间,但是被杀之后,功亏一篑。代价太大,该做法很少用。
「最小代价撤消法」:首先计算死锁进程的撤消代价,然后依次选择撤消代价最小的进程,逐个地撤消死锁进程,回收资源给其他进程,直至死锁不复存在。进程的撤消代价往往与进程的优先级、占用处理机的时间等成正比。
(2)挂起进程法 (剥夺资源)
「资源剥夺法」: 使用 挂起/激活 机构挂起一些进程,剥夺它们的资源以解除死锁,并将这些资源分配给其他的死锁进程,待条件满足时,再激活进程。目前挂起法比较受到重视。
🔥 显然,无论哪一种解除死锁的方法,都需要很大的开销。但是死锁的检测与解除办法不对系统的资源分配等加任何限制,因此是对付死锁的诸办法中导致资源利用率最高的一种办法,在对安全性要求高的大型系统中常用。
之前在这篇博客 【C++高阶】:智能指针的全面解析_智能指针详解 里面已经讲过智能指针的内容,感兴趣的可以看看这篇文章
不是,原因是:STL 的设计初衷是将性能挖掘到极致, 而一旦涉及到加锁保证线程安全, 会对性能造成巨大的影响。 而且对于不同的容器, 加锁方式的不同, 性能可能也不同(例如hash表的锁表和锁桶)。 因此 STL 默认不是线程安全, 如果需要在多线程环境下使用,往往需要调用者自行保证线程安全
对于 unique_ptr,由于只是在当前代码块范围内生效, 因此不涉及线程安全问题. 对于 shared_ptr, 多个对象需要共用一个引用计数变量, 所以会存在线程安全问题. 但是标准库实现的时候考虑到了这 个问题, 基于原子操作(CAS)的方式保证 shared_ptr 能够高效, 原子的操作引用计数.
🔥 之前在这篇文章里面 【Linux】:多线程(互斥 && 同步) 我们已经了解了互斥的一些内容,并且手搓实现互斥量 Mutex 的封装,现在对其来进行一个更详细的理解
🔥 加锁粒度(Lock Granularity)指的是在多线程或多进程程序中,锁定资源的范围或粒度大小。锁粒度越大,所保护的资源越多;锁粒度越小,保护的资源就越少
🍧 常见的加锁粒度类型:
std::atomic)进行数据更新🍧 选择加锁粒度时的考虑因素:
🍧 加锁粒度越小越好(理解):
🧀 举例说明:
💦 假设在一个电商系统中,我们需要对订单进行操作,其中包括更新商品库存、修改订单状态、记录用户购买行为等多个步骤。如果采用单一的粗粒度锁,比如在整个订单服务中只有一个全局锁,那么每次处理订单变更时都会锁定整个服务,即使各个操作之间并无直接的数据冲突。
// 大粒度锁:锁定整个订单服务
mutex orderServiceLock;
void processOrder(Order& order) {
orderServiceLock.lock();
updateProductInventory(order.productId, order.quantity); // 更新库存
modifyOrderStatus(order.id, ORDER_STATUS_COMPLETED); // 修改订单状态
logUserPurchaseBehavior(order.userId, order.productId); // 记录购买行为
orderServiceLock.unlock();
}🥎 在上述代码中,任何一个请求处理都需要获得全局锁才能进行操作,这就意味着如果有多个订单同时进来,必须逐个执行,无法并行处理,极大地降低了系统的并发性能。
而改为细粒度锁方案,我们可以根据业务逻辑分别对不同的资源加锁
// 细粒度锁:按资源分别加锁
mutex productInventoryLock;
mutex orderStatusLock;
mutex userPurchaseLogLock;
void processOrder(Order& order) {
productInventoryLock.lock();
updateProductInventory(order.productId, order.quantity);
productInventoryLock.unlock();
orderStatusLock.lock();
modifyOrderStatus(order.id, ORDER_STATUS_COMPLETED);
orderStatusLock.unlock();
userPurchaseLogLock.lock();
logUserPurchaseBehavior(order.userId, order.productId);
userPurchaseLogLock.unlock();
}🔥 在这种情况下,如果三个操作涉及的是不同的资源(例如不同商品的库存、不同订单的状态和用户的购买历史),那么即使在高并发情况下,不同订单的部分操作也能并行执行,提高了系统的并发能力和整体性能。同时,由于锁的粒度较小,各线程持有锁的时间较短,减少了因争抢锁而导致的阻塞等待时间,进一步降低了死锁的发生概率。
实现细粒度锁的策略
🔥 综上所述,为了防止多线程访问全局变量时互相影响,应使用加锁机制确保访问的原子性和一致性。同时,遵循 “加锁粒度越小越好” 的原则,通过减少阻塞范围、避免死锁以及提高系统可伸缩性,来优化多线程程序的并发性能和稳定性。
加锁后,线程在临界区中是否会切换,会有问题吗?
答案是:会切换,但这并不会引起问题
① 为什么加锁后线程被切换不会引起问题?
② 原子性体现
对于一个没有持有锁的线程2来说,它面临的情况只有两种:
当一个线程成功获取锁后,它就可以独占临界区内的资源,这意味着在这段时间内,其他线程不能进入临界区执行代码或访问资源。这种操作被称为原子性的,因为它要么完全发生(获取锁并执行临界区代码),要么根本不发生(无法获取锁,线程被阻塞)。
③ 加锁是否意味着串行执行?
是的,在使用互斥锁保护的临界区内,线程执行是串行的
🍒 具体来说,当一个线程成功获取到互斥锁并进入临界区后,其他试图获取该锁的线程将被阻塞,直到持有锁的线程执行完毕临界区代码并释放锁。这种机制确保了在同一时刻,只有一个线程能够访问和修改受保护的共享资源(在这里是 tickets 变量)。尽管线程间的调度仍然是不确定的,但在互斥锁的约束下,对临界区的访问是有序的、不可重叠的,从而实现了对共享资源的串行化访问。
④ 锁也是共享资源?
正确,锁本身确实是一种共享资源,因为所有试图访问受保护资源的线程都需要与之交互
⑤ 谁来保证锁的安全?
🎂 确保锁的安全是非常重要的,因为它直接关系到多线程程序的正确性和数据的一致性。锁的安全性主要包括两个方面:一是锁本身的原子性,二是锁使用的正确性。
锁的原子性:锁的原子性指的是锁的申请和释放操作必须是不可分割的,即这两个操作要么全部完成,要么都不发生
锁使用的正确性:除了锁本身的操作必须是原子的之外,还需要保证锁在整个使用过程中是安全的,这包括但不限于:
互斥锁实现原理(本质):以一条汇编的方式,将内存和CPU内寄存区数据进行交互
🏀 在计算机系统中,寄存器是一组小容量的高速存储单元,它们位于CPU内部,用于暂存数据和指令。寄存器通常用于快速存储和访问临时数据,如算术运算的中间结果、指针、状态标志等。寄存器的速度远快于主内存,因为它们直接集成在处理器内部,减少了数据传输的时间延迟。
寄存器作为当前执行流的上下文
⚽ 在多线程或多执行流的视角下,寄存器可以被视为当前执行流的上下文。这里所说的“上下文”,是指执行流在某一时刻的所有必要状态信息,包括但不限于寄存器的内容、程序计数器(PC)、栈指针(SP)等。
寄存器的空间共享与内容私有
🏸 虽然物理上的寄存器硬件是所有执行流所共享的,但寄存器的内容却是每个执行流私有的。这意味着,虽然多个线程或执行流可能看起来共享同一组寄存器,但当一个执行流正在执行时,它会拥有这些寄存器内容的独占使用权。具体而言:
lock和unlock汇编伪代码
lock:
movb $0,%al
xchgb al,mutex
if(al寄存器的内容>0){
return 0;
}else
挂起等待;
goto lock;
unlock:
movb $1,mutex
唤醒等待Mutex的线程;
return 0;锁操作详解
交换的现象:内存与%al 做交换
🔥 对于 swap 或 exchange 这样的指令,它们通常用于在内存和寄存器之间交换数据,而且在一些体系结构中,这类指令是可以保证原子性的,即在多线程环境下,不会有其他线程能在指令执行过程中中断并改变被交换的数据。例如,在x86架构中,可以用 xchg 指令实现寄存器和内存位置的数据原子交换。
交换的本质:共享<->私有:
📕 在下方的图示中,可以看到一个CPU和内存之间的交互过程。当CPU尝试获取锁时,它需要检查内存中的mutex变量的状态。如果状态为0,则可以成功获取锁;反之,如果状态非零,则表示另一个线程已经持有了锁,此时CPU需要等待。

🔥 在这个场景中,有两个线程A和B试图同时访问同一段共享资源(例如一段内存区域或一个变量)。为了防止多个线程同时修改这段共享资源导致的数据不一致或其他问题,我们需要一种机制来保证每次只有一个线程能够访问这段资源。
🛹 互斥锁就是这样的一个机制。它提供了一种方式来控制对共享资源的访问,使得在同一时刻只有一个线程能够拥有锁并访问资源。当一个线程想要访问共享资源时,它必须先尝试获取锁。如果锁已经被其他线程持有,那么这个线程就会被阻塞并进入等待状态,直到锁被释放为止。
🧃 通过这种方式,我们可以在多线程环境中实现对共享资源的安全访问,避免了数据竞争和其他并发问题。每个线程都必须遵循相同的规则来获取和释放锁,以确保所有线程都能正确地协调它们对共享资源的访问。

【*★,°*:.☆( ̄▽ ̄)/$:*.°★* 】那么本篇到此就结束啦,如果有不懂 和 发现问题的小伙伴可以在评论区说出来哦,同时我还会继续更新关于【Linux】的内容,请持续关注我 !!💞