c55fdbeb2c9825b3d971c7a74e536ea347988730
[folly.git] / folly / ThreadLocal.h
1 /*
2  * Copyright 2015 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 /**
18  * Improved thread local storage for non-trivial types (similar speed as
19  * pthread_getspecific but only consumes a single pthread_key_t, and 4x faster
20  * than boost::thread_specific_ptr).
21  *
22  * Also includes an accessor interface to walk all the thread local child
23  * objects of a parent.  accessAllThreads() initializes an accessor which holds
24  * a global lock *that blocks all creation and destruction of ThreadLocal
25  * objects with the same Tag* and can be used as an iterable container.
26  *
27  * Intended use is for frequent write, infrequent read data access patterns such
28  * as counters.
29  *
30  * There are two classes here - ThreadLocal and ThreadLocalPtr.  ThreadLocalPtr
31  * has semantics similar to boost::thread_specific_ptr. ThreadLocal is a thin
32  * wrapper around ThreadLocalPtr that manages allocation automatically.
33  *
34  * @author Spencer Ahrens (sahrens)
35  */
36
37 #ifndef FOLLY_THREADLOCAL_H_
38 #define FOLLY_THREADLOCAL_H_
39
40 #include <folly/Portability.h>
41 #include <boost/iterator/iterator_facade.hpp>
42 #include <folly/Likely.h>
43 #include <type_traits>
44
45
46 namespace folly {
47 enum class TLPDestructionMode {
48   THIS_THREAD,
49   ALL_THREADS
50 };
51 }  // namespace
52
53 #include <folly/detail/ThreadLocalDetail.h>
54
55 namespace folly {
56
57 template<class T, class Tag> class ThreadLocalPtr;
58
59 template<class T, class Tag=void>
60 class ThreadLocal {
61  public:
62   constexpr ThreadLocal() : constructor_([]() {
63       return new T();
64     }) {}
65
66   explicit ThreadLocal(std::function<T*()> constructor) :
67       constructor_(constructor) {
68   }
69
70   T* get() const {
71     T* ptr = tlp_.get();
72     if (LIKELY(ptr != nullptr)) {
73       return ptr;
74     }
75
76     // separated new item creation out to speed up the fast path.
77     return makeTlp();
78   }
79
80   T* operator->() const {
81     return get();
82   }
83
84   T& operator*() const {
85     return *get();
86   }
87
88   void reset(T* newPtr = nullptr) {
89     tlp_.reset(newPtr);
90   }
91
92   typedef typename ThreadLocalPtr<T,Tag>::Accessor Accessor;
93   Accessor accessAllThreads() const {
94     return tlp_.accessAllThreads();
95   }
96
97   // movable
98   ThreadLocal(ThreadLocal&&) = default;
99   ThreadLocal& operator=(ThreadLocal&&) = default;
100
101  private:
102   // non-copyable
103   ThreadLocal(const ThreadLocal&) = delete;
104   ThreadLocal& operator=(const ThreadLocal&) = delete;
105
106   T* makeTlp() const {
107     auto ptr = constructor_();
108     tlp_.reset(ptr);
109     return ptr;
110   }
111
112   mutable ThreadLocalPtr<T,Tag> tlp_;
113   std::function<T*()> constructor_;
114 };
115
116 /*
117  * The idea here is that __thread is faster than pthread_getspecific, so we
118  * keep a __thread array of pointers to objects (ThreadEntry::elements) where
119  * each array has an index for each unique instance of the ThreadLocalPtr
120  * object.  Each ThreadLocalPtr object has a unique id that is an index into
121  * these arrays so we can fetch the correct object from thread local storage
122  * very efficiently.
123  *
124  * In order to prevent unbounded growth of the id space and thus huge
125  * ThreadEntry::elements, arrays, for example due to continuous creation and
126  * destruction of ThreadLocalPtr objects, we keep a set of all active
127  * instances.  When an instance is destroyed we remove it from the active
128  * set and insert the id into freeIds_ for reuse.  These operations require a
129  * global mutex, but only happen at construction and destruction time.
130  *
131  * We use a single global pthread_key_t per Tag to manage object destruction and
132  * memory cleanup upon thread exit because there is a finite number of
133  * pthread_key_t's available per machine.
134  *
135  * NOTE: Apple platforms don't support the same semantics for __thread that
136  *       Linux does (and it's only supported at all on i386). For these, use
137  *       pthread_setspecific()/pthread_getspecific() for the per-thread
138  *       storage.  Windows (MSVC and GCC) does support the same semantics
139  *       with __declspec(thread)
140  */
141
142 template<class T, class Tag=void>
143 class ThreadLocalPtr {
144  private:
145   typedef threadlocal_detail::StaticMeta<Tag> StaticMeta;
146  public:
147   constexpr ThreadLocalPtr() : id_() {}
148
149   ThreadLocalPtr(ThreadLocalPtr&& other) noexcept :
150     id_(std::move(other.id_)) {
151   }
152
153   ThreadLocalPtr& operator=(ThreadLocalPtr&& other) {
154     assert(this != &other);
155     destroy();
156     id_ = std::move(other.id_);
157     return *this;
158   }
159
160   ~ThreadLocalPtr() {
161     destroy();
162   }
163
164   T* get() const {
165     threadlocal_detail::ElementWrapper& w = StaticMeta::get(&id_);
166     return static_cast<T*>(w.ptr);
167   }
168
169   T* operator->() const {
170     return get();
171   }
172
173   T& operator*() const {
174     return *get();
175   }
176
177   T* release() {
178     threadlocal_detail::ElementWrapper& w = StaticMeta::get(&id_);
179
180     return static_cast<T*>(w.release());
181   }
182
183   void reset(T* newPtr = nullptr) {
184     threadlocal_detail::ElementWrapper& w = StaticMeta::get(&id_);
185
186     if (w.ptr != newPtr) {
187       w.dispose(TLPDestructionMode::THIS_THREAD);
188       w.set(newPtr);
189     }
190   }
191
192   explicit operator bool() const {
193     return get() != nullptr;
194   }
195
196   /**
197    * reset() with a custom deleter:
198    * deleter(T* ptr, TLPDestructionMode mode)
199    * "mode" is ALL_THREADS if we're destructing this ThreadLocalPtr (and thus
200    * deleting pointers for all threads), and THIS_THREAD if we're only deleting
201    * the member for one thread (because of thread exit or reset())
202    */
203   template <class Deleter>
204   void reset(T* newPtr, Deleter deleter) {
205     threadlocal_detail::ElementWrapper& w = StaticMeta::get(&id_);
206     if (w.ptr != newPtr) {
207       w.dispose(TLPDestructionMode::THIS_THREAD);
208       w.set(newPtr, deleter);
209     }
210   }
211
212   // Holds a global lock for iteration through all thread local child objects.
213   // Can be used as an iterable container.
214   // Use accessAllThreads() to obtain one.
215   class Accessor {
216     friend class ThreadLocalPtr<T,Tag>;
217
218     threadlocal_detail::StaticMeta<Tag>& meta_;
219     std::mutex* lock_;
220     uint32_t id_;
221
222    public:
223     class Iterator;
224     friend class Iterator;
225
226     // The iterators obtained from Accessor are bidirectional iterators.
227     class Iterator : public boost::iterator_facade<
228           Iterator,                               // Derived
229           T,                                      // value_type
230           boost::bidirectional_traversal_tag> {   // traversal
231       friend class Accessor;
232       friend class boost::iterator_core_access;
233       const Accessor* const accessor_;
234       threadlocal_detail::ThreadEntry* e_;
235
236       void increment() {
237         e_ = e_->next;
238         incrementToValid();
239       }
240
241       void decrement() {
242         e_ = e_->prev;
243         decrementToValid();
244       }
245
246       T& dereference() const {
247         return *static_cast<T*>(e_->elements[accessor_->id_].ptr);
248       }
249
250       bool equal(const Iterator& other) const {
251         return (accessor_->id_ == other.accessor_->id_ &&
252                 e_ == other.e_);
253       }
254
255       explicit Iterator(const Accessor* accessor)
256         : accessor_(accessor),
257           e_(&accessor_->meta_.head_) {
258       }
259
260       bool valid() const {
261         return (e_->elements &&
262                 accessor_->id_ < e_->elementsCapacity &&
263                 e_->elements[accessor_->id_].ptr);
264       }
265
266       void incrementToValid() {
267         for (; e_ != &accessor_->meta_.head_ && !valid(); e_ = e_->next) { }
268       }
269
270       void decrementToValid() {
271         for (; e_ != &accessor_->meta_.head_ && !valid(); e_ = e_->prev) { }
272       }
273     };
274
275     ~Accessor() {
276       release();
277     }
278
279     Iterator begin() const {
280       return ++Iterator(this);
281     }
282
283     Iterator end() const {
284       return Iterator(this);
285     }
286
287     Accessor(const Accessor&) = delete;
288     Accessor& operator=(const Accessor&) = delete;
289
290     Accessor(Accessor&& other) noexcept
291       : meta_(other.meta_),
292         lock_(other.lock_),
293         id_(other.id_) {
294       other.id_ = 0;
295       other.lock_ = nullptr;
296     }
297
298     Accessor& operator=(Accessor&& other) noexcept {
299       // Each Tag has its own unique meta, and accessors with different Tags
300       // have different types.  So either *this is empty, or this and other
301       // have the same tag.  But if they have the same tag, they have the same
302       // meta (and lock), so they'd both hold the lock at the same time,
303       // which is impossible, which leaves only one possible scenario --
304       // *this is empty.  Assert it.
305       assert(&meta_ == &other.meta_);
306       assert(lock_ == nullptr);
307       using std::swap;
308       swap(lock_, other.lock_);
309       swap(id_, other.id_);
310     }
311
312     Accessor()
313       : meta_(threadlocal_detail::StaticMeta<Tag>::instance()),
314         lock_(nullptr),
315         id_(0) {
316     }
317
318    private:
319     explicit Accessor(uint32_t id)
320       : meta_(threadlocal_detail::StaticMeta<Tag>::instance()),
321         lock_(&meta_.lock_) {
322       lock_->lock();
323       id_ = id;
324     }
325
326     void release() {
327       if (lock_) {
328         lock_->unlock();
329         id_ = 0;
330         lock_ = nullptr;
331       }
332     }
333   };
334
335   // accessor allows a client to iterate through all thread local child
336   // elements of this ThreadLocal instance.  Holds a global lock for each <Tag>
337   Accessor accessAllThreads() const {
338     static_assert(!std::is_same<Tag, void>::value,
339                   "Must use a unique Tag to use the accessAllThreads feature");
340     return Accessor(id_.getOrAllocate());
341   }
342
343  private:
344   void destroy() {
345     StaticMeta::destroy(&id_);
346   }
347
348   // non-copyable
349   ThreadLocalPtr(const ThreadLocalPtr&) = delete;
350   ThreadLocalPtr& operator=(const ThreadLocalPtr&) = delete;
351
352   mutable typename StaticMeta::EntryID id_;
353 };
354
355 }  // namespace folly
356
357 #endif /* FOLLY_THREADLOCAL_H_ */