Fix SimpleBarrier
[folly.git] / folly / Bits.h
1 /*
2  * Copyright 2016 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 /**
18  * Various low-level, bit-manipulation routines.
19  *
20  * findFirstSet(x)  [constexpr]
21  *    find first (least significant) bit set in a value of an integral type,
22  *    1-based (like ffs()).  0 = no bits are set (x == 0)
23  *
24  * findLastSet(x)  [constexpr]
25  *    find last (most significant) bit set in a value of an integral type,
26  *    1-based.  0 = no bits are set (x == 0)
27  *    for x != 0, findLastSet(x) == 1 + floor(log2(x))
28  *
29  * nextPowTwo(x)  [constexpr]
30  *    Finds the next power of two >= x.
31  *
32  * isPowTwo(x)  [constexpr]
33  *    return true iff x is a power of two
34  *
35  * popcount(x)
36  *    return the number of 1 bits in x
37  *
38  * Endian
39  *    convert between native, big, and little endian representation
40  *    Endian::big(x)      big <-> native
41  *    Endian::little(x)   little <-> native
42  *    Endian::swap(x)     big <-> little
43  *
44  * BitIterator
45  *    Wrapper around an iterator over an integral type that iterates
46  *    over its underlying bits in MSb to LSb order
47  *
48  * findFirstSet(BitIterator begin, BitIterator end)
49  *    return a BitIterator pointing to the first 1 bit in [begin, end), or
50  *    end if all bits in [begin, end) are 0
51  *
52  * @author Tudor Bosman (tudorb@fb.com)
53  */
54
55 #pragma once
56
57 #if !defined(__clang__) && !(defined(_MSC_VER) && (_MSC_VER < 1900))
58 #define FOLLY_INTRINSIC_CONSTEXPR constexpr
59 #else
60 // GCC and MSVC 2015+ are the only compilers with
61 // intrinsics constexpr.
62 #define FOLLY_INTRINSIC_CONSTEXPR const
63 #endif
64
65 #include <folly/Portability.h>
66 #include <folly/portability/Builtins.h>
67
68 #include <folly/Assume.h>
69 #include <folly/detail/BitsDetail.h>
70 #include <folly/detail/BitIteratorDetail.h>
71 #include <folly/Likely.h>
72
73 #if FOLLY_HAVE_BYTESWAP_H
74 # include <byteswap.h>
75 #endif
76
77 #include <cassert>
78 #include <cinttypes>
79 #include <iterator>
80 #include <limits>
81 #include <type_traits>
82 #include <boost/iterator/iterator_adaptor.hpp>
83 #include <stdint.h>
84
85 namespace folly {
86
87 // Generate overloads for findFirstSet as wrappers around
88 // appropriate ffs, ffsl, ffsll gcc builtins
89 template <class T>
90 inline FOLLY_INTRINSIC_CONSTEXPR
91 typename std::enable_if<
92   (std::is_integral<T>::value &&
93    std::is_unsigned<T>::value &&
94    sizeof(T) <= sizeof(unsigned int)),
95   unsigned int>::type
96   findFirstSet(T x) {
97   return __builtin_ffs(x);
98 }
99
100 template <class T>
101 inline FOLLY_INTRINSIC_CONSTEXPR
102 typename std::enable_if<
103   (std::is_integral<T>::value &&
104    std::is_unsigned<T>::value &&
105    sizeof(T) > sizeof(unsigned int) &&
106    sizeof(T) <= sizeof(unsigned long)),
107   unsigned int>::type
108   findFirstSet(T x) {
109   return __builtin_ffsl(x);
110 }
111
112 template <class T>
113 inline FOLLY_INTRINSIC_CONSTEXPR
114 typename std::enable_if<
115   (std::is_integral<T>::value &&
116    std::is_unsigned<T>::value &&
117    sizeof(T) > sizeof(unsigned long) &&
118    sizeof(T) <= sizeof(unsigned long long)),
119   unsigned int>::type
120   findFirstSet(T x) {
121   return __builtin_ffsll(x);
122 }
123
124 template <class T>
125 inline FOLLY_INTRINSIC_CONSTEXPR
126 typename std::enable_if<
127   (std::is_integral<T>::value && std::is_signed<T>::value),
128   unsigned int>::type
129   findFirstSet(T x) {
130   // Note that conversion from a signed type to the corresponding unsigned
131   // type is technically implementation-defined, but will likely work
132   // on any impementation that uses two's complement.
133   return findFirstSet(static_cast<typename std::make_unsigned<T>::type>(x));
134 }
135
136 // findLastSet: return the 1-based index of the highest bit set
137 // for x > 0, findLastSet(x) == 1 + floor(log2(x))
138 template <class T>
139 inline FOLLY_INTRINSIC_CONSTEXPR
140 typename std::enable_if<
141   (std::is_integral<T>::value &&
142    std::is_unsigned<T>::value &&
143    sizeof(T) <= sizeof(unsigned int)),
144   unsigned int>::type
145   findLastSet(T x) {
146   // If X is a power of two X - Y = ((X - 1) ^ Y) + 1. Doing this transformation
147   // allows GCC to remove its own xor that it adds to implement clz using bsr
148   return x ? ((8 * sizeof(unsigned int) - 1) ^ __builtin_clz(x)) + 1 : 0;
149 }
150
151 template <class T>
152 inline FOLLY_INTRINSIC_CONSTEXPR
153 typename std::enable_if<
154   (std::is_integral<T>::value &&
155    std::is_unsigned<T>::value &&
156    sizeof(T) > sizeof(unsigned int) &&
157    sizeof(T) <= sizeof(unsigned long)),
158   unsigned int>::type
159   findLastSet(T x) {
160   return x ? ((8 * sizeof(unsigned long) - 1) ^ __builtin_clzl(x)) + 1 : 0;
161 }
162
163 template <class T>
164 inline FOLLY_INTRINSIC_CONSTEXPR
165 typename std::enable_if<
166   (std::is_integral<T>::value &&
167    std::is_unsigned<T>::value &&
168    sizeof(T) > sizeof(unsigned long) &&
169    sizeof(T) <= sizeof(unsigned long long)),
170   unsigned int>::type
171   findLastSet(T x) {
172   return x ? ((8 * sizeof(unsigned long long) - 1) ^ __builtin_clzll(x)) + 1
173            : 0;
174 }
175
176 template <class T>
177 inline FOLLY_INTRINSIC_CONSTEXPR
178 typename std::enable_if<
179   (std::is_integral<T>::value &&
180    std::is_signed<T>::value),
181   unsigned int>::type
182   findLastSet(T x) {
183   return findLastSet(static_cast<typename std::make_unsigned<T>::type>(x));
184 }
185
186 template <class T>
187 inline FOLLY_INTRINSIC_CONSTEXPR
188 typename std::enable_if<
189   std::is_integral<T>::value && std::is_unsigned<T>::value,
190   T>::type
191 nextPowTwo(T v) {
192   return v ? (T(1) << findLastSet(v - 1)) : 1;
193 }
194
195 template <class T>
196 inline FOLLY_INTRINSIC_CONSTEXPR typename std::
197     enable_if<std::is_integral<T>::value && std::is_unsigned<T>::value, T>::type
198     prevPowTwo(T v) {
199   return v ? (T(1) << (findLastSet(v) - 1)) : 0;
200 }
201
202 template <class T>
203 inline constexpr typename std::enable_if<
204     std::is_integral<T>::value && std::is_unsigned<T>::value,
205     bool>::type
206 isPowTwo(T v) {
207   return (v != 0) && !(v & (v - 1));
208 }
209
210 /**
211  * Population count
212  */
213 template <class T>
214 inline typename std::enable_if<
215   (std::is_integral<T>::value &&
216    std::is_unsigned<T>::value &&
217    sizeof(T) <= sizeof(unsigned int)),
218   size_t>::type
219   popcount(T x) {
220   return detail::popcount(x);
221 }
222
223 template <class T>
224 inline typename std::enable_if<
225   (std::is_integral<T>::value &&
226    std::is_unsigned<T>::value &&
227    sizeof(T) > sizeof(unsigned int) &&
228    sizeof(T) <= sizeof(unsigned long long)),
229   size_t>::type
230   popcount(T x) {
231   return detail::popcountll(x);
232 }
233
234 /**
235  * Endianness detection and manipulation primitives.
236  */
237 namespace detail {
238
239 template <class T>
240 struct EndianIntBase {
241  public:
242   static T swap(T x);
243 };
244
245 #ifndef _MSC_VER
246
247 /**
248  * If we have the bswap_16 macro from byteswap.h, use it; otherwise, provide our
249  * own definition.
250  */
251 #ifdef bswap_16
252 # define our_bswap16 bswap_16
253 #else
254
255 template<class Int16>
256 inline constexpr typename std::enable_if<
257   sizeof(Int16) == 2,
258   Int16>::type
259 our_bswap16(Int16 x) {
260   return ((x >> 8) & 0xff) | ((x & 0xff) << 8);
261 }
262 #endif
263
264 #endif
265
266 #define FB_GEN(t, fn) \
267 template<> inline t EndianIntBase<t>::swap(t x) { return fn(x); }
268
269 // fn(x) expands to (x) if the second argument is empty, which is exactly
270 // what we want for [u]int8_t. Also, gcc 4.7 on Intel doesn't have
271 // __builtin_bswap16 for some reason, so we have to provide our own.
272 FB_GEN( int8_t,)
273 FB_GEN(uint8_t,)
274 #ifdef _MSC_VER
275 FB_GEN( int64_t, _byteswap_uint64)
276 FB_GEN(uint64_t, _byteswap_uint64)
277 FB_GEN( int32_t, _byteswap_ulong)
278 FB_GEN(uint32_t, _byteswap_ulong)
279 FB_GEN( int16_t, _byteswap_ushort)
280 FB_GEN(uint16_t, _byteswap_ushort)
281 #else
282 FB_GEN( int64_t, __builtin_bswap64)
283 FB_GEN(uint64_t, __builtin_bswap64)
284 FB_GEN( int32_t, __builtin_bswap32)
285 FB_GEN(uint32_t, __builtin_bswap32)
286 FB_GEN( int16_t, our_bswap16)
287 FB_GEN(uint16_t, our_bswap16)
288 #endif
289
290 #undef FB_GEN
291
292 template <class T>
293 struct EndianInt : public EndianIntBase<T> {
294  public:
295   static T big(T x) {
296     return kIsLittleEndian ? EndianInt::swap(x) : x;
297   }
298   static T little(T x) {
299     return kIsBigEndian ? EndianInt::swap(x) : x;
300   }
301 };
302
303 }  // namespace detail
304
305 // big* convert between native and big-endian representations
306 // little* convert between native and little-endian representations
307 // swap* convert between big-endian and little-endian representations
308 //
309 // ntohs, htons == big16
310 // ntohl, htonl == big32
311 #define FB_GEN1(fn, t, sz) \
312   static t fn##sz(t x) { return fn<t>(x); } \
313
314 #define FB_GEN2(t, sz) \
315   FB_GEN1(swap, t, sz) \
316   FB_GEN1(big, t, sz) \
317   FB_GEN1(little, t, sz)
318
319 #define FB_GEN(sz) \
320   FB_GEN2(uint##sz##_t, sz) \
321   FB_GEN2(int##sz##_t, sz)
322
323 class Endian {
324  public:
325   enum class Order : uint8_t {
326     LITTLE,
327     BIG
328   };
329
330   static constexpr Order order = kIsLittleEndian ? Order::LITTLE : Order::BIG;
331
332   template <class T> static T swap(T x) {
333     return folly::detail::EndianInt<T>::swap(x);
334   }
335   template <class T> static T big(T x) {
336     return folly::detail::EndianInt<T>::big(x);
337   }
338   template <class T> static T little(T x) {
339     return folly::detail::EndianInt<T>::little(x);
340   }
341
342 #if !defined(__ANDROID__)
343   FB_GEN(64)
344   FB_GEN(32)
345   FB_GEN(16)
346   FB_GEN(8)
347 #endif
348 };
349
350 #undef FB_GEN
351 #undef FB_GEN2
352 #undef FB_GEN1
353
354 /**
355  * Fast bit iteration facility.
356  */
357
358
359 template <class BaseIter> class BitIterator;
360 template <class BaseIter>
361 BitIterator<BaseIter> findFirstSet(BitIterator<BaseIter>,
362                                    BitIterator<BaseIter>);
363 /**
364  * Wrapper around an iterator over an integer type that iterates
365  * over its underlying bits in LSb to MSb order.
366  *
367  * BitIterator models the same iterator concepts as the base iterator.
368  */
369 template <class BaseIter>
370 class BitIterator
371   : public bititerator_detail::BitIteratorBase<BaseIter>::type {
372  public:
373   /**
374    * Return the number of bits in an element of the underlying iterator.
375    */
376   static unsigned int bitsPerBlock() {
377     return std::numeric_limits<
378       typename std::make_unsigned<
379         typename std::iterator_traits<BaseIter>::value_type
380       >::type
381     >::digits;
382   }
383
384   /**
385    * Construct a BitIterator that points at a given bit offset (default 0)
386    * in iter.
387    */
388   explicit BitIterator(const BaseIter& iter, size_t bitOff=0)
389     : bititerator_detail::BitIteratorBase<BaseIter>::type(iter),
390       bitOffset_(bitOff) {
391     assert(bitOffset_ < bitsPerBlock());
392   }
393
394   size_t bitOffset() const {
395     return bitOffset_;
396   }
397
398   void advanceToNextBlock() {
399     bitOffset_ = 0;
400     ++this->base_reference();
401   }
402
403   BitIterator& operator=(const BaseIter& other) {
404     this->~BitIterator();
405     new (this) BitIterator(other);
406     return *this;
407   }
408
409  private:
410   friend class boost::iterator_core_access;
411   friend BitIterator findFirstSet<>(BitIterator, BitIterator);
412
413   typedef bititerator_detail::BitReference<
414       typename std::iterator_traits<BaseIter>::reference,
415       typename std::iterator_traits<BaseIter>::value_type
416     > BitRef;
417
418   void advanceInBlock(size_t n) {
419     bitOffset_ += n;
420     assert(bitOffset_ < bitsPerBlock());
421   }
422
423   BitRef dereference() const {
424     return BitRef(*this->base_reference(), bitOffset_);
425   }
426
427   void advance(ssize_t n) {
428     size_t bpb = bitsPerBlock();
429     ssize_t blocks = n / bpb;
430     bitOffset_ += n % bpb;
431     if (bitOffset_ >= bpb) {
432       bitOffset_ -= bpb;
433       ++blocks;
434     }
435     this->base_reference() += blocks;
436   }
437
438   void increment() {
439     if (++bitOffset_ == bitsPerBlock()) {
440       advanceToNextBlock();
441     }
442   }
443
444   void decrement() {
445     if (bitOffset_-- == 0) {
446       bitOffset_ = bitsPerBlock() - 1;
447       --this->base_reference();
448     }
449   }
450
451   bool equal(const BitIterator& other) const {
452     return (bitOffset_ == other.bitOffset_ &&
453             this->base_reference() == other.base_reference());
454   }
455
456   ssize_t distance_to(const BitIterator& other) const {
457     return
458       (other.base_reference() - this->base_reference()) * bitsPerBlock() +
459       other.bitOffset_ - bitOffset_;
460   }
461
462   unsigned int bitOffset_;
463 };
464
465 /**
466  * Helper function, so you can write
467  * auto bi = makeBitIterator(container.begin());
468  */
469 template <class BaseIter>
470 BitIterator<BaseIter> makeBitIterator(const BaseIter& iter) {
471   return BitIterator<BaseIter>(iter);
472 }
473
474
475 /**
476  * Find first bit set in a range of bit iterators.
477  * 4.5x faster than the obvious std::find(begin, end, true);
478  */
479 template <class BaseIter>
480 BitIterator<BaseIter> findFirstSet(BitIterator<BaseIter> begin,
481                                    BitIterator<BaseIter> end) {
482   // shortcut to avoid ugly static_cast<>
483   static const typename BaseIter::value_type one = 1;
484
485   while (begin.base() != end.base()) {
486     typename BaseIter::value_type v = *begin.base();
487     // mask out the bits that don't matter (< begin.bitOffset)
488     v &= ~((one << begin.bitOffset()) - 1);
489     size_t firstSet = findFirstSet(v);
490     if (firstSet) {
491       --firstSet;  // now it's 0-based
492       assert(firstSet >= begin.bitOffset());
493       begin.advanceInBlock(firstSet - begin.bitOffset());
494       return begin;
495     }
496     begin.advanceToNextBlock();
497   }
498
499   // now begin points to the same block as end
500   if (end.bitOffset() != 0) {  // assume end is dereferenceable
501     typename BaseIter::value_type v = *begin.base();
502     // mask out the bits that don't matter (< begin.bitOffset)
503     v &= ~((one << begin.bitOffset()) - 1);
504     // mask out the bits that don't matter (>= end.bitOffset)
505     v &= (one << end.bitOffset()) - 1;
506     size_t firstSet = findFirstSet(v);
507     if (firstSet) {
508       --firstSet;  // now it's 0-based
509       assert(firstSet >= begin.bitOffset());
510       begin.advanceInBlock(firstSet - begin.bitOffset());
511       return begin;
512     }
513   }
514
515   return end;
516 }
517
518
519 template <class T, class Enable=void> struct Unaligned;
520
521 /**
522  * Representation of an unaligned value of a POD type.
523  */
524 FOLLY_PACK_PUSH
525 template <class T>
526 struct Unaligned<
527     T,
528     typename std::enable_if<std::is_pod<T>::value>::type> {
529   Unaligned() = default;  // uninitialized
530   /* implicit */ Unaligned(T v) : value(v) { }
531   T value;
532 } FOLLY_PACK_ATTR;
533 FOLLY_PACK_POP
534
535 /**
536  * Read an unaligned value of type T and return it.
537  */
538 template <class T>
539 inline T loadUnaligned(const void* p) {
540   static_assert(sizeof(Unaligned<T>) == sizeof(T), "Invalid unaligned size");
541   static_assert(alignof(Unaligned<T>) == 1, "Invalid alignment");
542   if (kHasUnalignedAccess) {
543     return static_cast<const Unaligned<T>*>(p)->value;
544   } else {
545     T value;
546     memcpy(&value, p, sizeof(T));
547     return value;
548   }
549 }
550
551 /**
552  * Write an unaligned value of type T.
553  */
554 template <class T>
555 inline void storeUnaligned(void* p, T value) {
556   static_assert(sizeof(Unaligned<T>) == sizeof(T), "Invalid unaligned size");
557   static_assert(alignof(Unaligned<T>) == 1, "Invalid alignment");
558   if (kHasUnalignedAccess) {
559     // Prior to C++14, the spec says that a placement new like this
560     // is required to check that p is not nullptr, and to do nothing
561     // if p is a nullptr. By assuming it's not a nullptr, we get a
562     // nice loud segfault in optimized builds if p is nullptr, rather
563     // than just silently doing nothing.
564     folly::assume(p != nullptr);
565     new (p) Unaligned<T>(value);
566   } else {
567     memcpy(p, &value, sizeof(T));
568   }
569 }
570
571 }  // namespace folly