Add thread caching of hazard pointers. Benchmarks. Minor fixes, optimizations, and...
[folly.git] / folly / experimental / hazptr / example / SWMRList.h
1 /*
2  * Copyright 2017 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16 #pragma once
17
18 #include <folly/experimental/hazptr/debug.h>
19 #include <folly/experimental/hazptr/hazptr.h>
20
21 namespace folly {
22 namespace hazptr {
23
24 /** Set implemented as an ordered singly-linked list.
25  *
26  *  A single writer thread may add or remove elements. Multiple reader
27  *  threads may search the set concurrently with each other and with
28  *  the writer's operations.
29  */
30 template <typename T>
31 class SWMRListSet {
32   template <typename Node>
33   struct Reclaimer {
34     void operator()(Node* p) {
35       DEBUG_PRINT(p << " " << sizeof(Node));
36       delete p;
37     }
38   };
39
40   class Node : public hazptr_obj_base<Node, Reclaimer<Node>> {
41     friend SWMRListSet;
42     T elem_;
43     std::atomic<Node*> next_;
44
45     Node(T e, Node* n) : elem_(e), next_(n) {
46       DEBUG_PRINT(this << " " << e << " " << n);
47     }
48
49    public:
50     ~Node() {
51       DEBUG_PRINT(this);
52     }
53   };
54
55   std::atomic<Node*> head_ = {nullptr};
56   hazptr_domain& domain_;
57
58   /* Used by the single writer */
59   void locate_lower_bound(const T& v, std::atomic<Node*>*& prev) const {
60     auto curr = prev->load(std::memory_order_relaxed);
61     while (curr) {
62       if (curr->elem_ >= v) break;
63       prev = &(curr->next_);
64       curr = curr->next_.load(std::memory_order_relaxed);
65     }
66     return;
67   }
68
69  public:
70   explicit SWMRListSet(hazptr_domain& domain = default_hazptr_domain())
71       : domain_(domain) {}
72
73   ~SWMRListSet() {
74     Node* next;
75     for (auto p = head_.load(); p; p = next) {
76       next = p->next_.load();
77       delete p;
78     }
79   }
80
81   bool add(T v) {
82     auto prev = &head_;
83     locate_lower_bound(v, prev);
84     auto curr = prev->load(std::memory_order_relaxed);
85     if (curr && curr->elem_ == v) return false;
86     prev->store(new Node(std::move(v), curr));
87     return true;
88   }
89
90   bool remove(const T& v) {
91     auto prev = &head_;
92     locate_lower_bound(v, prev);
93     auto curr = prev->load(std::memory_order_relaxed);
94     if (!curr || curr->elem_ != v) return false;
95     Node *curr_next = curr->next_.load();
96     // Patch up the actual list...
97     prev->store(curr_next, std::memory_order_release);
98     // ...and only then null out the removed node.
99     curr->next_.store(nullptr, std::memory_order_release);
100     curr->retire(domain_);
101     return true;
102   }
103   /* Used by readers */
104   bool contains(const T& val) const {
105     /* Acquire two hazard pointers for hand-over-hand traversal. */
106     hazptr_owner<Node> hptr_prev(domain_);
107     hazptr_owner<Node> hptr_curr(domain_);
108     while (true) {
109       auto prev = &head_;
110       auto curr = prev->load(std::memory_order_acquire);
111       while (true) {
112         if (!curr) { return false; }
113         if (!hptr_curr.try_protect(curr, *prev))
114           break;
115         auto next = curr->next_.load(std::memory_order_acquire);
116         if (prev->load(std::memory_order_acquire) != curr)
117           break;
118         if (curr->elem_ == val) {
119             return true;
120         } else if (!(curr->elem_ < val)) {
121             return false;  // because the list is sorted
122         }
123         prev = &(curr->next_);
124         curr = next;
125         /* Swap does not change the values of the owned hazard
126          * pointers themselves. After the swap, The hazard pointer
127          * owned by hptr_prev continues to protect the node that
128          * contains the pointer *prev. The hazard pointer owned by
129          * hptr_curr will continue to protect the node that contains
130          * the old *prev (unless the old prev was &head), which no
131          * longer needs protection, so hptr_curr's hazard pointer is
132          * now free to protect *curr in the next iteration (if curr !=
133          * null).
134          */
135         swap(hptr_curr, hptr_prev);
136       }
137     }
138     /* The hazard pointers are released automatically. */
139   }
140 };
141
142 } // namespace folly {
143 } // namespace hazptr {