Copyright 2012 -> 2013
[folly.git] / folly / SmallLocks.h
1 /*
2  * Copyright 2013 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef FOLLY_SMALLLOCKS_H_
18 #define FOLLY_SMALLLOCKS_H_
19
20 /*
21  * This header defines a few very small mutex types.  These are useful
22  * in highly memory-constrained environments where contention is
23  * unlikely.
24  *
25  * Note: these locks are for use when you aren't likely to contend on
26  * the critical section, or when the critical section is incredibly
27  * small.  Given that, both of the locks defined in this header are
28  * inherently unfair: that is, the longer a thread is waiting, the
29  * longer it waits between attempts to acquire, so newer waiters are
30  * more likely to get the mutex.  For the intended use-case this is
31  * fine.
32  *
33  * @author Keith Adams <kma@fb.com>
34  * @author Jordan DeLong <delong.j@fb.com>
35  */
36
37 #include <array>
38 #include <cinttypes>
39 #include <type_traits>
40 #include <ctime>
41 #include <boost/noncopyable.hpp>
42 #include <cstdlib>
43 #include <pthread.h>
44 #include <mutex>
45
46 #include <glog/logging.h>
47
48 #ifndef __x86_64__
49 # error "SmallLocks.h is currently x64-only."
50 #endif
51
52 #include "folly/Portability.h"
53
54 namespace folly {
55
56 //////////////////////////////////////////////////////////////////////
57
58 namespace detail {
59
60   /*
61    * A helper object for the condended case. Starts off with eager
62    * spinning, and falls back to sleeping for small quantums.
63    */
64   class Sleeper {
65     static const uint32_t kMaxActiveSpin = 4000;
66
67     uint32_t spinCount;
68
69   public:
70     Sleeper() : spinCount(0) {}
71
72     void wait() {
73       if (spinCount < kMaxActiveSpin) {
74         ++spinCount;
75         asm volatile("pause");
76       } else {
77         /*
78          * Always sleep 0.5ms, assuming this will make the kernel put
79          * us down for whatever its minimum timer resolution is (in
80          * linux this varies by kernel version from 1ms to 10ms).
81          */
82         struct timespec ts = { 0, 500000 };
83         nanosleep(&ts, NULL);
84       }
85     }
86   };
87
88 }
89
90 //////////////////////////////////////////////////////////////////////
91
92 /*
93  * A really, *really* small spinlock for fine-grained locking of lots
94  * of teeny-tiny data.
95  *
96  * Zero initializing these is guaranteed to be as good as calling
97  * init(), since the free state is guaranteed to be all-bits zero.
98  *
99  * This class should be kept a POD, so we can used it in other packed
100  * structs (gcc does not allow __attribute__((packed)) on structs that
101  * contain non-POD data).  This means avoid adding a constructor, or
102  * making some members private, etc.
103  */
104 struct MicroSpinLock {
105   enum { FREE = 0, LOCKED = 1 };
106   uint8_t lock_;
107
108   /*
109    * Atomically move lock_ from "compare" to "newval". Return boolean
110    * success. Do not play on or around.
111    */
112   bool cas(uint8_t compare, uint8_t newVal) {
113     bool out;
114     asm volatile("lock; cmpxchgb %2, (%3);"
115                  "setz %0;"
116                  : "=r" (out)
117                  : "a" (compare), // cmpxchgb constrains this to be in %al
118                    "q" (newVal),  // Needs to be byte-accessible
119                    "r" (&lock_)
120                  : "memory", "flags");
121     return out;
122   }
123
124   // Initialize this MSL.  It is unnecessary to call this if you
125   // zero-initialize the MicroSpinLock.
126   void init() {
127     lock_ = FREE;
128   }
129
130   bool try_lock() {
131     return cas(FREE, LOCKED);
132   }
133
134   void lock() {
135     detail::Sleeper sleeper;
136     do {
137       while (lock_ != FREE) {
138         asm volatile("" : : : "memory");
139         sleeper.wait();
140       }
141     } while (!try_lock());
142     DCHECK(lock_ == LOCKED);
143   }
144
145   void unlock() {
146     CHECK(lock_ == LOCKED);
147     asm volatile("" : : : "memory");
148     lock_ = FREE; // release barrier on x86
149   }
150 };
151
152 //////////////////////////////////////////////////////////////////////
153
154 /*
155  * Spin lock on a single bit in an integral type.  You can use this
156  * with 16, 32, or 64-bit integral types.
157  *
158  * This is useful if you want a small lock and already have an int
159  * with a bit in it that you aren't using.  But note that it can't be
160  * as small as MicroSpinLock (1 byte), if you don't already have a
161  * convenient int with an unused bit lying around to put it on.
162  *
163  * To construct these, either use init() or zero initialize.  We don't
164  * have a real constructor because we want this to be a POD type so we
165  * can put it into packed structs.
166  */
167 template<class IntType, int Bit = sizeof(IntType) * 8 - 1>
168 struct PicoSpinLock {
169   // Internally we deal with the unsigned version of the type.
170   typedef typename std::make_unsigned<IntType>::type UIntType;
171
172   static_assert(std::is_integral<IntType>::value,
173                 "PicoSpinLock needs an integral type");
174   static_assert(sizeof(IntType) == 2 || sizeof(IntType) == 4 ||
175                   sizeof(IntType) == 8,
176                 "PicoSpinLock can't work on integers smaller than 2 bytes");
177
178  public:
179   static const UIntType kLockBitMask_ = UIntType(1) << Bit;
180   UIntType lock_;
181
182   /*
183    * You must call this function before using this class, if you
184    * default constructed it.  If you zero-initialized it you can
185    * assume the PicoSpinLock is in a valid unlocked state with
186    * getData() == 0.
187    *
188    * (This doesn't use a constructor because we want to be a POD.)
189    */
190   void init(IntType initialValue = 0) {
191     CHECK(!(initialValue & kLockBitMask_));
192     lock_ = initialValue;
193   }
194
195   /*
196    * Returns the value of the integer we using for our lock, except
197    * with the bit we are using as a lock cleared, regardless of
198    * whether the lock is held.
199    *
200    * It is 'safe' to call this without holding the lock.  (As in: you
201    * get the same guarantees for simultaneous accesses to an integer
202    * as you normally get.)
203    */
204   IntType getData() const {
205     return static_cast<IntType>(lock_ & ~kLockBitMask_);
206   }
207
208   /*
209    * Set the value of the other bits in our integer.
210    *
211    * Don't use this when you aren't holding the lock, unless it can be
212    * guaranteed that no other threads may be trying to use this.
213    */
214   void setData(IntType w) {
215     CHECK(!(w & kLockBitMask_));
216     lock_ = (lock_ & kLockBitMask_) | w;
217   }
218
219   /*
220    * Try to get the lock without blocking: returns whether or not we
221    * got it.
222    */
223   bool try_lock() const {
224     bool ret = false;
225
226 #define FB_DOBTS(size)                                  \
227   asm volatile("lock; bts" #size " %1, (%2); setnc %0"  \
228                : "=r" (ret)                             \
229                : "i" (Bit),                             \
230                  "r" (&lock_)                           \
231                : "memory", "flags")
232
233     switch (sizeof(IntType)) {
234     case 2: FB_DOBTS(w); break;
235     case 4: FB_DOBTS(l); break;
236     case 8: FB_DOBTS(q); break;
237     }
238
239 #undef FB_DOBTS
240
241     return ret;
242   }
243
244   /*
245    * Block until we can acquire the lock.  Uses Sleeper to wait.
246    */
247   void lock() const {
248     detail::Sleeper sleeper;
249     while (!try_lock()) {
250       sleeper.wait();
251     }
252   }
253
254   /*
255    * Release the lock, without changing the value of the rest of the
256    * integer.
257    */
258   void unlock() const {
259 #define FB_DOBTR(size)                          \
260   asm volatile("lock; btr" #size " %0, (%1)"    \
261                :                                \
262                : "i" (Bit),                     \
263                  "r" (&lock_)                   \
264                : "memory", "flags")
265
266
267     // Reads and writes can not be reordered wrt locked instructions,
268     // so we don't need a memory fence here.
269     switch (sizeof(IntType)) {
270     case 2: FB_DOBTR(w); break;
271     case 4: FB_DOBTR(l); break;
272     case 8: FB_DOBTR(q); break;
273     }
274
275 #undef FB_DOBTR
276   }
277 };
278
279 //////////////////////////////////////////////////////////////////////
280
281 /**
282  * Array of spinlocks where each one is padded to prevent false sharing.
283  * Useful for shard-based locking implementations in environments where
284  * contention is unlikely.
285  */
286
287 // TODO: generate it from configure (`getconf LEVEL1_DCACHE_LINESIZE`)
288 #define FOLLY_CACHE_LINE_SIZE 64
289
290 template <class T, size_t N>
291 struct SpinLockArray {
292   T& operator[](size_t i) {
293     return data_[i].lock;
294   }
295
296   const T& operator[](size_t i) const {
297     return data_[i].lock;
298   }
299
300   constexpr size_t size() const { return N; }
301
302  private:
303   struct PaddedSpinLock {
304     PaddedSpinLock() : lock() { }
305     T lock;
306     char padding[FOLLY_CACHE_LINE_SIZE - sizeof(T)];
307   };
308   static_assert(sizeof(PaddedSpinLock) == FOLLY_CACHE_LINE_SIZE,
309                 "Invalid size of PaddedSpinLock");
310
311   // Check if T can theoretically cross a cache line.
312   // NOTE: It should be alignof(std::max_align_t), but max_align_t
313   // isn't supported by gcc 4.6.2.
314   static_assert(alignof(MaxAlign) > 0 &&
315                 FOLLY_CACHE_LINE_SIZE % alignof(MaxAlign) == 0 &&
316                 sizeof(T) <= alignof(MaxAlign),
317                 "T can cross cache line boundaries");
318
319   char padding_[FOLLY_CACHE_LINE_SIZE];
320   std::array<PaddedSpinLock, N> data_;
321 } __attribute__((aligned));
322
323 //////////////////////////////////////////////////////////////////////
324
325 typedef std::lock_guard<MicroSpinLock> MSLGuard;
326
327 //////////////////////////////////////////////////////////////////////
328
329 }
330
331 #endif