记录《C++Concurrency In Action》的学习过程
并发
多进程并发
将应用程序分为多个独立的进程同时运行;不同的进程可以通过信号、套接字等渠道进行通信,但是这种进程间的通信复杂,且速度慢。因为操作系统会对进程进行保护,以避免一个进程去修改另一个进程的数据;另外,运行多个进程还有固定开销:需要时间启动进程,操作系统需要资源来管理进程等等
这种并发方式可以更容易编写安全的并发代码;也可以使用远程连接的方式,在不同机器上运行独立的进程
多线程并发
指的是在单进程中运行多个线程,每个线程相互独立运行,并且可以在不同的指令序列中运行;进程中的所有线程都共享地址空间,并且能访问到大部分数据
虽然多线程开销远远小于多进程,但是如果多个线程同时访问数据,必须保证每个线程访问的数据一致
线程管理
线程的基本操作
为线程创建std::thread
对象后,需要等这个线程结束
启动线程
线程在std::thread
对象创建时就会启动,其参数通常是无参数无返回值的函数,在这个函数执行完毕后,线程也就结束了
利用spdlog
进行日志打印,显示执行任务的线程
void log(const std::string &str) {
spdlog::set_pattern("[%Y-%m-%d %H:%M:%S] [Thread %t] [%l] %v");
spdlog::info(str);
}
std::thread
构造函数接收可调用对象(如函数指针、lambda表达式、函数对象等),并在新线程中执行
仿函数(函数对象)作std::thread
构造的参数:
class background_task{
public:
void operator()()const {
log("Functor Thread");
}
};
background_task f;
std::thread my_thread(f);
执行时,函数对象f会拷贝(拷贝构造)到新线程的存储空间,函数对象的执行和调用都在新线程的内存空间中执行,新线程结束时,析构线程内的函数对象;
需要注意,如果std::thread
的构造函数直接传输一个临时的函数对象变量,C++编译器会将其解释为一个函数声明:
std::thread my_thread(background_task());
也就是会解析为创建一个my_thread
函数,返回值是std::thread
,参数是一个函数指针,指向没有参数并返回background_task对象的函数;
如果不需要提前创建函数对象,可以使用多组括号、初始化语法来解决上述问题:
std::thread my_thread((background_task())); // 1
std::thread my_thread{background_task()}; // 2
使用lambda表达式作std::thread
构造的参数:
改写为:
std::thread my_thread([]{
log("back_ground task");
});
detach
线程创建后,需要指出让线程分离到后台运行还是直接运行,通过detach
的方式可以将线程放到后台运行
struct func {
int &i;
func(int &i_) : i(i_) {}
void operator()() const{
for (unsigned j = 0; j < 1000000; ++j) {
log(std::to_string(i)); // 1 潜在访问隐患:空引用
}
}
};
void oops() {
int some_local_state = 0;
func my_func(some_local_state);
std::thread my_thread(my_func);
my_thread.detach(); // 2 不等待线程结束
} // 3 新线程可能还在运行
当oops()
执行完后,线程my_thread
可能还在后台运行,这时就会执行log(std::to_string(i))
,访问已销毁的变量
oops()
的执行过程:
主线程 | 新线程 |
---|---|
使用some_local_state 构造my_func |
|
开启my_thread |
启动 |
调用operator() |
|
分离my_thread |
继续执行,可能会调用some_local_state 的引用 |
销毁some_local_state |
持续运行 |
退出oops 函数 |
持续执行operator() |
解决方法: |
- 通过智能指针传递参数,因为引用计数会随着赋值增加,可保证局部变量在使用期间不被释放
- 将局部变量的值作为参数传递,这么做需要局部变量有拷贝复制的功能
- 将线程运行的方式修改为join,这样能保证局部变量被释放前线程已经运行结束。但是这么做可能会影响运行逻辑。
join
使用join()
可以确保主线程等待子线程完成任务后才继续执行,防止子线程意外终止,同时也可以清理与线程相关的内存资源(操作系统级别的句柄等)
异常处理
为了防止程序出现异常,在调用join()
之前抛出,需要在异常处理中调用join()
,避免生命周期的问题,可以使用“资源获取即初始化方式”(RAII,Resource Acquisition Is Initialization),提供一个类,在析构函数中使用join()
class thread_guard
{
std::thread& t;
public:
explicit thread_guard(std::thread& t_):
t(t_)
{}
~thread_guard()
{
if(t.joinable()) // 1
{
t.join(); // 2
}
}
thread_guard(thread_guard const&)=delete; // 3
thread_guard& operator=(thread_guard const&)=delete;
};
struct func; // 定义在代码2.1中
void f()
{
int some_local_state=0;
func my_func(some_local_state);
std::thread t(my_func);
thread_guard g(t);
do_something_in_current_thread();
} // 4
线程执行到④时,局部变量就要被销毁,调用thread_guard
的析构,也就是t的join
;thread_guard
的拷贝构造函数和拷贝赋值标记为delete
是很有必要的,这样可以防止记录的线程混乱
后台运行线程
detach分离的线程称为守护线程,这种线程的特点就是长时间运行,线程的生命周期可能会从应用的起始到结束,可能会在后台监视文件系统,还有可能对缓存进行清理,亦或对数据结构进行优化。另外,分离线程只能确定线程什么时候结束,发后即忘(fire and forget)的任务使用到就是分离线程。
传递参数
std::thread
构造函数传入的函数有参数的话,依次添加即可,这些参数会拷贝到新线程的内存空间中(与临时变量一样),即使函数中的参数是引用的形式,拷贝操作也会执行
类型转换
void f(int i, std::string const& s);
std::thread t(f, 3, "hello");
上述代码创建了一个调用f(3, "hello")的线程,函数要求一个std::string
对象作为第二个参数,但这里用的是const char *
类型,线程上下文自动完成类型转换,如果指向动态变量的指针作为参数,就需要注意了:
void f(int i,std::string const& s);
void oops(int some_param)
{
char buffer[1024]; // 1
sprintf(buffer, "%i",some_param);
std::thread t(f,3,buffer); // 2
t.detach();
}
buffer①是一个指向局部变量的指针变量,这个局部变量通过buffer传递到新线程中②。函数oops
可能在buffer转换为std::string
之前结束,buffer可能会引用已经销毁的内存;解决方法就是显式转换为std::string
void f(int i,std::string const& s);
void not_oops(int some_param)
{
char buffer[1024];
sprintf(buffer,"%i",some_param);
std::thread t(f,3,std::string(buffer)); // 使用std::string,避免悬空指针
t.detach();
}
引用参数
std::thread
构造传入的函数参数为引用类型,需要将参数显示转化为引用对象传递给线程的构造函数,否则编译不通过
void change_param(int& param) {
param++;
}
void ref_oops(int some_param) {
std::cout << "before change , param is " << some_param << std::endl;
//需使用引用显示转换
std::thread t2(change_param, some_param);
t2.join();
std::cout << "after change , param is " << some_param << std::endl;
}
就像上文说的,std::thread
会无视参数类型,永远都会拷贝已提供的变量,内部代码会将拷贝的参数以右值的方式进行传递,会尝试以这个右值为实参调用change_param
这个函数,而该函数的参数是非常量引用做参数,所以编译出错;
通过std::ref
将参数转换成引用的形式
std::thread t2(change_param, std::ref(some_param));
这样change_param
就会收到some_param
的引用了
类的成员函数
需要让线程执行类的成员函数时:
class X
{
public:
void do_lengthy_work() {
std::cout << "do_lengthy_work " << std::endl;
}
};
void bind_class_oops() {
X my_x;
std::thread t(&X::do_lengthy_work, &my_x);
t.join();
}
第一个参数是要执行的成员函数指针,第二个参数是类的地址,后面的参数依次就是成员函数的参数
class X
{
public:
void do_lengthy_work(int);
};
X my_x;
int num(0);
std::thread t(&X::do_lengthy_work, &my_x, num);
std::move
如果传递给线程的参数是独占的(不支持拷贝构造和拷贝赋值),就通过std::move
将变量的所有权转移给新线程
void deal_unique(std::unique_ptr<int> p) {
std::cout << "unique ptr data is " << *p << std::endl;
(*p)++;
std::cout << "after unique ptr data is " << *p << std::endl;
}
void move_oops() {
auto p = std::make_unique<int>(100);
std::thread t(deal_unique, std::move(p));
t.join();
//不能再使用p了,p已经被move废弃
// std::cout << "after unique ptr data is " << *p << std::endl;
}
线程归属权
每个线程都有其所属权,也就是有对应的变量(std::thread)管理,std::thread
对象不可以拷贝构造和拷贝赋值,所以只能通过移动和局部变量返回的方式将线程变量管理的线程转移给其它线程变量管理:
void some_function();
void some_other_function();
std::thread t1(some_function); // 1
std::thread t2=std::move(t1); // 2
t1=std::thread(some_other_function); // 3
std::thread t3; // 4
t3=std::move(t2); // 5
t1=std::move(t3); // 6 赋值操作将使程序崩溃
新线程与变量t1关联①,当使用std::move()
创建t2后②,新线程的所有权就转让给了t2,t1与新线程已经没有了关联;然后使用临时std::thread
对象创建了线程③(临时对象会隐式调用std::move()
,调用默认构造函数创建t3④,通过std::move()
将t2关联线程的所有权转让到t3⑤;此时:t1与执行some_other_function的线程关联,t2没有关联线程,t3与执行some_function的线程关联;
最后一步尝试将t3关联的线程所有权转让给t1,但是t1已经有了关联的线程,所以会调用std::terminate()
终止程序(不抛出异常)
可以在函数内部直接返回std::thread
变量,因为返回局部变量时,会优先调用拷贝构造函数,没有就会调用移动构造函数
std::thread f()
{
void some_function();
return std::thread(some_function);
}
joining_thread类
就是直接将线程放到这个类中,析构的时候调用join,已纳入C++20;std::jthread
class joining_thread {
private:
std::thread _t;
public:
joining_thread() = default;
// 模板函数
template<typename Callable, typename ... Args>
explicit joining_thread(Callable &&func, Args &&... args):
_t(std::forward<Callable>(func), std::forward<Args>(args)...) {};
explicit joining_thread(std::thread t) noexcept: _t(std::move(t)) {};
joining_thread(joining_thread &&other) noexcept: _t(std::move(other._t)) {};
joining_thread &operator=(joining_thread &&other) noexcept {
if (joinAble()) {
join();
}
_t = std::move(other._t);
return *this;
}
joining_thread &operator=(std::thread other) noexcept {
if (joinAble()) {
join();
}
_t = std::move(other);
return *this;
}
~joining_thread() {
if (joinAble()) {
join();
}
}
[[nodiscard]] bool joinAble() const noexcept {
return _t.joinable();
}
void join() {
_t.join();
}
void detach() {
_t.detach();
}
void swap(joining_thread &other) noexcept {
_t.swap(other._t);
}
[[nodiscard]] std::thread::id getId() const noexcept {
return _t.get_id();
}
std::thread &asThread() noexcept {
return _t;
}
[[nodiscard]] const std::thread &asThread() const noexcept {
return _t;
}
};
使用joining_thread:
void useJoiningThread() {
// 调用模板构造函数
joining_thread j1([](int maxindex) {
for (int i = 0; i < maxindex; i++) {
log(" cur index is " + std::to_string(i));
std::this_thread::sleep_for(std::chrono::seconds(1));
}
}, 10);
// 调用用thread做参数的构造函数
joining_thread j2(std::thread([](int maxindex) {
for (int i = 0; i < maxindex; i++) {
log(" cur index is " + std::to_string(i));
std::this_thread::sleep_for(std::chrono::seconds(1));
}
}, 10));
//根据thread构造j3
joining_thread j3(std::thread([](int maxindex) {
for (int i = 0; i < maxindex; i++) {
log(" cur index is " + std::to_string(i));
std::this_thread::sleep_for(std::chrono::seconds(1));
}
}, 10));
// 将j3赋给j1
j1 = std::move(j3);
}
容器批量创建线程
容器要存储线程时,需要使用emplace_back
方法,其参数可以直接传递构造函数需要的参数
void useVector() {
std::vector<std::thread> threads;
for (size_t i = 0; i < 10; i++) {
threads.emplace_back([=]() { log("This is thread " + std::to_string(i)); });
}
for (auto &entry: threads) {
entry.join();
}
}
确定线程数量
std::thread::hardware_concurrency()
可以获得并发线程的数量,实现一个并行版的std::accumulate
// 计算容器内元素总和
template<typename Iterator, typename T>
struct accumulate_block {
void operator()(Iterator first, Iterator last, T &res) {
res = std::accumulate(first, last, res);
}
};
template<typename Iterator, typename T>
T parallel_accumulate(Iterator first, Iterator last, T init) {
// 计算迭代器之间的距离
unsigned long const length = std::distance(first, last);
if (!length) {
// 长度为0 1
return init;
}
// 每个线程最少要处理的元素数量
unsigned long const min_per_thread = 25;
// 最大线程数
unsigned long const max_threads = (length + min_per_thread - 1) / min_per_thread;//2
// 设备支持的线程数
unsigned long const hardware_threads = std::thread::hardware_concurrency();
// 实际选用的线程数,防止产生过多的上下文切换开销
unsigned long const num_threads = std::min(hardware_threads != 0 ? hardware_threads : 2, max_threads);//3
// 每个线程实际处理的元素数量
unsigned long const block_size = length / num_threads;//4
// 存放结果
std::vector<T> results(num_threads);
// 创建线程,-1是因为最后一个线程处理的数据在主线程进行处理
std::vector<std::thread> threads(num_threads - 1);//5
Iterator block_start = first;
for (unsigned long i = 0; i < (num_threads - 1); i++) {
Iterator block_end = block_start;
// 确定结束迭代器
std::advance(block_end, block_size);//6
threads[i] = std::thread(accumulate_block<Iterator, T>(), block_start, block_end, &results[i]);//7
// 更新迭代器
block_start = block_end;//8
}
// 处理最后一块
accumulate_block<Iterator, T>()(block_start, last, results[num_threads - 1]);//9
for (auto &entry: threads) {
entry.join();//10
}
return std::accumulate(results.begin(), results.end(), init);//11
}
识别线程
每个线程都有唯一的id,为std::thread::id
类型,可以通过以下方式获取:
std::thread
对象的get_id()
成员函数- 当前线程中调用
std::this_thread::get_id()
如果std::thread
对象没有与任何线程关联,就会返回std::thread::type
默认构造值
如果需要在函数中根据线程不同来执行不同的逻辑,就可以通过这种方式:
std::thread::id master_thread;
void some_core_part_of_algorithm()
{
if(std::this_thread::get_id()==master_thread)
{
do_master_thread_work();
}
do_common_work();
}
共享数据
互斥量
修改共享数据前,将数据用互斥量锁住,修改结束后,再释放,当线程使用互斥量锁住共享数据时,其他的线程都必须等到之前那个线程对数据进行解锁后,才能进行访问数据。
通过std::mutex
创建互斥量实例,成员函数lock()
、unlock()
为上锁解锁,但是一般使用RAII模板类std::lock_guard
,在构造时就进行上锁,析构时解锁
使用std::mutex
进行上锁
std::mutex mtx1;
int shared_data = 100;
void use_lock(){
while(true){
mtx1.lock();
shared_data++;
log("shared_data is "+std::to_string(shared_data));
mtx1.unlock();
std::this_thread::sleep_for(std::chrono::seconds(1));
}
}
void test_lock(){
std::thread t1(use_lock);
std::thread t2([](){
while(true){
mtx1.lock();
shared_data++;
log("shared_data is "+std::to_string(shared_data));
mtx1.unlock();
std::this_thread::sleep_for(std::chrono::seconds(1));
}
});
t1.join();
t2.join();
}
使用lock_guard
进行上锁需要注意,只有当lock_guard
成员析构时才会释放锁,可以使用代码块来实现
保护共享数据时,要注意是否有指针、引用、参数是否有指针或引用:
class some_data {
int a;
std::string b;
public:
void do_something() { log("do something"); };
};
class data_wrapper {
private:
some_data data;
std::mutex m;
public:
template<typename Function>
void process_data(Function func) {
std::lock_guard<std::mutex> l(m);
func(data); // 1 传递“保护”数据给用户函数
}
};
some_data *unprotected;
void malicious_function(some_data &protected_data) {
unprotected = &protected_data;
}
data_wrapper x;
void foo() {
x.process_data(malicious_function); // 2 传递一个恶意函数
unprotected->do_something(); // 3 在无保护的情况下访问保护数据
}
data_wrapper类中的data本应是线程安全的,但是由于传入了malicious_function函数,获取了其地址,后续可以直接调用unprotected来进行一些操作
如何保证数据安全
有时候我们可以将对共享数据的访问和修改聚合到一个函数,在函数内加锁保证数据的安全性。但是对于读取类型的操作,即使读取函数是线程安全的,但是返回值抛给外边使用,存在不安全性。比如一个栈对象,我们要保证其在多线程访问的时候是安全的,可以在判断栈是否为空,判断操作内部我们可以加锁,但是判断结束后返回值就不在加锁了,就会存在线程安全问题。
template<typename T>
class thread_safe_stack1 {
private:
std::stack<T> data;
mutable std::mutex m;
public:
thread_safe_stack1() = default;
thread_safe_stack1(const thread_safe_stack1 &other) {
std::lock_guard<std::mutex> lock(m);
data = other.data;
}
thread_safe_stack1 &operator=(const thread_safe_stack1 &) = delete;
void push(T new_value) {
std::lock_guard<std::mutex> lock(m);
data.push(std::move(new_value));
}
// 问题代码
T pop() {
std::lock_guard<std::mutex> lock(m);
auto element = data.top();
data.pop();
return element;
}
bool empty() const {
std::lock_guard<std::mutex> lock(m);
return data.empty();
}
};
比如上面这个类,empty()返回时的结果可能是正确的,但是并不可靠,因为返回后锁被释放,其它线程可以对栈进行访问,可能会对栈内元素做修改,这样之前获得的empty()的数值就有问题了
void test_thread_safe_stack1() {
thread_safe_stack1<int> safeStack1;
safeStack1.push(1);
std::thread t1([&safeStack1] {
if (!safeStack1.empty()) {
std::this_thread::sleep_for(std::chrono::seconds(1));
safeStack1.pop();
}
});
std::thread t2([&safeStack1] {
if (!safeStack1.empty()) {
std::this_thread::sleep_for(std::chrono::seconds(1));
safeStack1.pop();
}
});
t1.join();
t2.join();
}
对于这样的测试函数,t1和t2分别判断完栈非空后都进行了pop,会抛出异常,可以在pop函数中增加异常判断,如果data.empty()
就会抛出异常
如果T是一个vector<int>
类型,在pop函数中存储了element,假设程序使用的内存足够大时,可进行拷贝的空间不足,返回的element可能存在vector拷贝赋值失败,使得数据能够从栈中弹出,但是弹出的数据完全丢失了
优化上述问题的方案有如下几种:
- 传入一个引用:将变量的引用作为参数,传入pop()函数中获取弹出的值:
std::vector<int> result; some_stack.pop(result);
;缺点就是需要临时构造一个实例 - 返回指向弹出值的指针:不返回top的值,返回其指针;可以使用智能指针
std::shared_ptr
std::shared_ptr<T> pop(){
std::lock_guard<std::mutex> lock(m);
// 弹出前检查是否为空栈
if(data.empty()){
throw empty_stack();
}
// 获取返回值
std::shared_ptr<T> const res(std::make_shared<T>(data.top()));
data.pop();
return res;
}
void pop(T& value){
std::lock_guard<std::mutex> lock(m);
// 弹出前检查是否为空栈
if(data.empty()){
throw empty_stack();
}
value = data.top();
data.pop();
}
死锁
死锁一般是由于调用顺序不一致造成的。当线程1先加锁A,再加锁B,而线程2先加锁B,再加锁A。那么在某一时刻就可能造成死锁。比如线程1对A已经加锁,线程2对B已经加锁,那么他们都希望彼此占有对方的锁,又不释放自己占有的锁导致了死锁。
可以将加锁和解锁的功能封装为独立的函数,这样能保证在独立的函数里执行完操作后就解锁,不会导致一个函数里使用多个锁的情况
//加锁和解锁作为原子操作解耦合,各自只管理自己的功能
void atomic_lock1() {
std::cout << "lock1 begin lock" << std::endl;
t_lock1.lock();
m_1 = 1024;
t_lock1.unlock();
std::cout << "lock1 end lock" << std::endl;
}
void atomic_lock2() {
std::cout << "lock2 begin lock" << std::endl;
t_lock2.lock();
m_2 = 2048;
t_lock2.unlock();
std::cout << "lock2 end lock" << std::endl;
}
void safe_lock1() {
while (true) {
atomic_lock1();
atomic_lock2();
std::this_thread::sleep_for(std::chrono::milliseconds(5));
}
}
void safe_lock2() {
while (true) {
atomic_lock2();
atomic_lock1();
std::this_thread::sleep_for(std::chrono::milliseconds(5));
}
}
也可以使用std::lock
一次锁住多个互斥量来解决死锁问题:
class some_big_object;
void swap(some_big_object& lhs,some_big_object& rhs);
class X
{
private:
some_big_object some_detail;
std::mutex m;
public:
X(some_big_object const& sd):some_detail(sd){}
friend void swap(X& lhs, X& rhs){
if(&lhs==&rhs)
return;
std::lock(lhs.m,rhs.m); // 1
std::lock_guard<std::mutex> lock_a(lhs.m,std::adopt_lock); // 2
std::lock_guard<std::mutex> lock_b(rhs.m,std::adopt_lock); // 3
swap(lhs.some_detail,rhs.some_detail);
}
};
std::lock
获取锁的时候如果出现了异常,那么就会释放所有的锁;在锁住后,如果不使用std::lock_guard
来管理的话,就需要手动调用互斥量的unlock
方法来释放
C++17提供了std::scoped_lock
,能接受多个互斥量作为参数,与std::lock
的区别是不需要手动解锁或交给std::lock_guard
管理
void swap(X& lhs, X& rhs){
if(&lhs==&rhs)
return;
std::scoped_lock guard(lhs.m,rhs.m); // 1
swap(lhs.some_detail,rhs.some_detail);
}
没写泛型是应用了C++17的自动推导模板参数的特性
层级锁
给锁设置层级,通过层级来防止死锁的发生;每个层次锁对象都有一个层级值,越大就代表“高层次”;一个线程只能在当前已经上锁的层次锁的层级之下进行进一步的上锁。这样规定后,一个线程如果试图以错误的顺序上锁,就会因为层次限制报错或抛出异常,从而避免死锁的发生,下面是一段伪代码:
hierarchical_mutex high_level_mutex(10000); // 1
hierarchical_mutex low_level_mutex(5000); // 2
hierarchical_mutex other_mutex(6000); // 3
// 内部不上锁
int do_low_level_stuff();
int low_level_func()
{
std::lock_guard<hierarchical_mutex> lk(low_level_mutex); // 4
return do_low_level_stuff();
}
void high_level_stuff(int some_param);
void high_level_func()
{
std::lock_guard<hierarchical_mutex> lk(high_level_mutex); // 6
high_level_stuff(low_level_func()); // 5
}
void thread_a() // 7
{
high_level_func();
}
void do_other_stuff();
void other_stuff()
{
high_level_func(); // 10
do_other_stuff();
}
void thread_b() // 8
{
std::lock_guard<hierarchical_mutex> lk(other_mutex); // 9
other_stuff();
}
有三个层级锁hierarchical_mutex
实例,将其中某个实例进行上锁,后续只能获取更低级层级的锁;所以thread_a
可以正常运行,thread_b
由于已经获取了other_mutex
的锁,而后又尝试获取high_level_mutex
的锁,所以就会抛出异常
下面是层级锁的简单实现:
class hierarchical_mutex {
public:
explicit hierarchical_mutex(unsigned long value) : _hierarchy_value(value), _previous_hierarchy_value(0) {};
hierarchical_mutex(const hierarchical_mutex &) = delete;
hierarchical_mutex &operator=(const hierarchical_mutex &) = delete;
void lock(){
checkForHierarchyViolation();
_internal_mutex.lock();
updateHierarchyValue();
}
void unlock(){
if(_this_thread_hierarchy_value!= _hierarchy_value){
throw std::logic_error("mutex hierarchy violated");
}
// 解锁,获取上一级锁
_this_thread_hierarchy_value = _previous_hierarchy_value;
_internal_mutex.unlock();
}
bool try_lock(){
checkForHierarchyViolation();
if(!_internal_mutex.try_lock()){
return false;
}
updateHierarchyValue();
return true;
}
private:
std::mutex _internal_mutex;
// 当前层级值
unsigned long const _hierarchy_value;
// 上一次层级值
unsigned long _previous_hierarchy_value;
// 本线程记录的层级值
static thread_local unsigned long _this_thread_hierarchy_value;
// 检查层级锁的获取是否合法
void checkForHierarchyViolation() const {
if (_this_thread_hierarchy_value <= _hierarchy_value) {
throw std::logic_error("mutex hierarchy violated");
}
}
// 更新持有的层级锁的值
void updateHierarchyValue() {
_previous_hierarchy_value = _this_thread_hierarchy_value;
_this_thread_hierarchy_value = _hierarchy_value;
}
};
thread_local unsigned long hierarchical_mutex::_this_thread_hierarchy_value(ULONG_MAX);
thread_local
关键字表示每个变量都有自己独立的副本
unique_lock
unique_lock和lock_guard基本用法相同,构造时默认加锁,析构时默认解锁,但unique_lock可以手动解锁;比std::lock_guard
占用更多空间,速度也要慢一些,需要注意的是,一旦由unique_lock进行管理,就不能调用mutex进行加锁解锁
std::mutex mtx;
int shared_data = 0;
void use_unique() {
//lock可自动解锁,也可手动解锁
std::unique_lock<std::mutex> lock(mtx);
std::cout << "lock success" << std::endl;
shared_data++;
lock.unlock();
}
可以通过其成员函数owns_lock
来判断是否持有锁
void ownsLock(){
std::unique_lock<std::mutex> lock(mtx);
share_data++;
if(lock.owns_lock()){
log("Owns lock");
}else{
log("Doesn't own lock");
}
lock.unlock();
if(lock.owns_lock()){
log("Owns lock");
}else{
log("Doesn't own lock");
}
}
构造函数的第二个参数默认是std::adopt_lock
,表示对互斥量进行管理;也可以传入std::defer_lock
,表示后续手动上锁
void defer_lock() {
//延迟加锁
std::unique_lock<std::mutex> lock(mtx, std::defer_lock);
//可以加锁
lock.lock();
//可以自动析构解锁,也可以手动解锁
lock.unlock();
}
std::unique_lock
管理的互斥量的所有权可以通过std::move()
转移
std::unique_lock <std::mutex> get_lock() {
std::unique_lock<std::mutex> lock(mtx);
shared_data++;
return lock;
}
void use_return() {
std::unique_lock<std::mutex> lock(get_lock());
shared_data++;
}