Include the Builtins portability header in Bits.h
[folly.git] / folly / Bits.h
1 /*
2  * Copyright 2016 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 /**
18  * Various low-level, bit-manipulation routines.
19  *
20  * findFirstSet(x)  [constexpr]
21  *    find first (least significant) bit set in a value of an integral type,
22  *    1-based (like ffs()).  0 = no bits are set (x == 0)
23  *
24  * findLastSet(x)  [constexpr]
25  *    find last (most significant) bit set in a value of an integral type,
26  *    1-based.  0 = no bits are set (x == 0)
27  *    for x != 0, findLastSet(x) == 1 + floor(log2(x))
28  *
29  * nextPowTwo(x)  [constexpr]
30  *    Finds the next power of two >= x.
31  *
32  * isPowTwo(x)  [constexpr]
33  *    return true iff x is a power of two
34  *
35  * popcount(x)
36  *    return the number of 1 bits in x
37  *
38  * Endian
39  *    convert between native, big, and little endian representation
40  *    Endian::big(x)      big <-> native
41  *    Endian::little(x)   little <-> native
42  *    Endian::swap(x)     big <-> little
43  *
44  * BitIterator
45  *    Wrapper around an iterator over an integral type that iterates
46  *    over its underlying bits in MSb to LSb order
47  *
48  * findFirstSet(BitIterator begin, BitIterator end)
49  *    return a BitIterator pointing to the first 1 bit in [begin, end), or
50  *    end if all bits in [begin, end) are 0
51  *
52  * @author Tudor Bosman (tudorb@fb.com)
53  */
54
55 #pragma once
56
57 #if !defined(__clang__) && !(defined(_MSC_VER) && (_MSC_VER < 1900))
58 #define FOLLY_INTRINSIC_CONSTEXPR constexpr
59 #else
60 // GCC and MSVC 2015+ are the only compilers with
61 // intrinsics constexpr.
62 #define FOLLY_INTRINSIC_CONSTEXPR const
63 #endif
64
65 #include <folly/Portability.h>
66 #include <folly/portability/Builtins.h>
67
68 #include <folly/detail/BitsDetail.h>
69 #include <folly/detail/BitIteratorDetail.h>
70 #include <folly/Likely.h>
71
72 #if FOLLY_HAVE_BYTESWAP_H
73 # include <byteswap.h>
74 #endif
75
76 #include <cassert>
77 #include <cinttypes>
78 #include <iterator>
79 #include <limits>
80 #include <type_traits>
81 #include <boost/iterator/iterator_adaptor.hpp>
82 #include <stdint.h>
83
84 namespace folly {
85
86 // Generate overloads for findFirstSet as wrappers around
87 // appropriate ffs, ffsl, ffsll gcc builtins
88 template <class T>
89 inline FOLLY_INTRINSIC_CONSTEXPR
90 typename std::enable_if<
91   (std::is_integral<T>::value &&
92    std::is_unsigned<T>::value &&
93    sizeof(T) <= sizeof(unsigned int)),
94   unsigned int>::type
95   findFirstSet(T x) {
96   return __builtin_ffs(x);
97 }
98
99 template <class T>
100 inline FOLLY_INTRINSIC_CONSTEXPR
101 typename std::enable_if<
102   (std::is_integral<T>::value &&
103    std::is_unsigned<T>::value &&
104    sizeof(T) > sizeof(unsigned int) &&
105    sizeof(T) <= sizeof(unsigned long)),
106   unsigned int>::type
107   findFirstSet(T x) {
108   return __builtin_ffsl(x);
109 }
110
111 template <class T>
112 inline FOLLY_INTRINSIC_CONSTEXPR
113 typename std::enable_if<
114   (std::is_integral<T>::value &&
115    std::is_unsigned<T>::value &&
116    sizeof(T) > sizeof(unsigned long) &&
117    sizeof(T) <= sizeof(unsigned long long)),
118   unsigned int>::type
119   findFirstSet(T x) {
120   return __builtin_ffsll(x);
121 }
122
123 template <class T>
124 inline FOLLY_INTRINSIC_CONSTEXPR
125 typename std::enable_if<
126   (std::is_integral<T>::value && std::is_signed<T>::value),
127   unsigned int>::type
128   findFirstSet(T x) {
129   // Note that conversion from a signed type to the corresponding unsigned
130   // type is technically implementation-defined, but will likely work
131   // on any impementation that uses two's complement.
132   return findFirstSet(static_cast<typename std::make_unsigned<T>::type>(x));
133 }
134
135 // findLastSet: return the 1-based index of the highest bit set
136 // for x > 0, findLastSet(x) == 1 + floor(log2(x))
137 template <class T>
138 inline FOLLY_INTRINSIC_CONSTEXPR
139 typename std::enable_if<
140   (std::is_integral<T>::value &&
141    std::is_unsigned<T>::value &&
142    sizeof(T) <= sizeof(unsigned int)),
143   unsigned int>::type
144   findLastSet(T x) {
145   return x ? 8 * sizeof(unsigned int) - __builtin_clz(x) : 0;
146 }
147
148 template <class T>
149 inline FOLLY_INTRINSIC_CONSTEXPR
150 typename std::enable_if<
151   (std::is_integral<T>::value &&
152    std::is_unsigned<T>::value &&
153    sizeof(T) > sizeof(unsigned int) &&
154    sizeof(T) <= sizeof(unsigned long)),
155   unsigned int>::type
156   findLastSet(T x) {
157   return x ? 8 * sizeof(unsigned long) - __builtin_clzl(x) : 0;
158 }
159
160 template <class T>
161 inline FOLLY_INTRINSIC_CONSTEXPR
162 typename std::enable_if<
163   (std::is_integral<T>::value &&
164    std::is_unsigned<T>::value &&
165    sizeof(T) > sizeof(unsigned long) &&
166    sizeof(T) <= sizeof(unsigned long long)),
167   unsigned int>::type
168   findLastSet(T x) {
169   return x ? 8 * sizeof(unsigned long long) - __builtin_clzll(x) : 0;
170 }
171
172 template <class T>
173 inline FOLLY_INTRINSIC_CONSTEXPR
174 typename std::enable_if<
175   (std::is_integral<T>::value &&
176    std::is_signed<T>::value),
177   unsigned int>::type
178   findLastSet(T x) {
179   return findLastSet(static_cast<typename std::make_unsigned<T>::type>(x));
180 }
181
182 template <class T>
183 inline FOLLY_INTRINSIC_CONSTEXPR
184 typename std::enable_if<
185   std::is_integral<T>::value && std::is_unsigned<T>::value,
186   T>::type
187 nextPowTwo(T v) {
188   return v ? (1ul << findLastSet(v - 1)) : 1;
189 }
190
191 template <class T>
192 inline constexpr
193 typename std::enable_if<
194   std::is_integral<T>::value && std::is_unsigned<T>::value,
195   bool>::type
196 isPowTwo(T v) {
197   return (v != 0) && !(v & (v - 1));
198 }
199
200 /**
201  * Population count
202  */
203 template <class T>
204 inline typename std::enable_if<
205   (std::is_integral<T>::value &&
206    std::is_unsigned<T>::value &&
207    sizeof(T) <= sizeof(unsigned int)),
208   size_t>::type
209   popcount(T x) {
210   return detail::popcount(x);
211 }
212
213 template <class T>
214 inline typename std::enable_if<
215   (std::is_integral<T>::value &&
216    std::is_unsigned<T>::value &&
217    sizeof(T) > sizeof(unsigned int) &&
218    sizeof(T) <= sizeof(unsigned long long)),
219   size_t>::type
220   popcount(T x) {
221   return detail::popcountll(x);
222 }
223
224 /**
225  * Endianness detection and manipulation primitives.
226  */
227 namespace detail {
228
229 template <class T>
230 struct EndianIntBase {
231  public:
232   static T swap(T x);
233 };
234
235 #ifndef _MSC_VER
236
237 /**
238  * If we have the bswap_16 macro from byteswap.h, use it; otherwise, provide our
239  * own definition.
240  */
241 #ifdef bswap_16
242 # define our_bswap16 bswap_16
243 #else
244
245 template<class Int16>
246 inline constexpr typename std::enable_if<
247   sizeof(Int16) == 2,
248   Int16>::type
249 our_bswap16(Int16 x) {
250   return ((x >> 8) & 0xff) | ((x & 0xff) << 8);
251 }
252 #endif
253
254 #endif
255
256 #define FB_GEN(t, fn) \
257 template<> inline t EndianIntBase<t>::swap(t x) { return fn(x); }
258
259 // fn(x) expands to (x) if the second argument is empty, which is exactly
260 // what we want for [u]int8_t. Also, gcc 4.7 on Intel doesn't have
261 // __builtin_bswap16 for some reason, so we have to provide our own.
262 FB_GEN( int8_t,)
263 FB_GEN(uint8_t,)
264 #ifdef _MSC_VER
265 FB_GEN( int64_t, _byteswap_uint64)
266 FB_GEN(uint64_t, _byteswap_uint64)
267 FB_GEN( int32_t, _byteswap_ulong)
268 FB_GEN(uint32_t, _byteswap_ulong)
269 FB_GEN( int16_t, _byteswap_ushort)
270 FB_GEN(uint16_t, _byteswap_ushort)
271 #else
272 FB_GEN( int64_t, __builtin_bswap64)
273 FB_GEN(uint64_t, __builtin_bswap64)
274 FB_GEN( int32_t, __builtin_bswap32)
275 FB_GEN(uint32_t, __builtin_bswap32)
276 FB_GEN( int16_t, our_bswap16)
277 FB_GEN(uint16_t, our_bswap16)
278 #endif
279
280 #undef FB_GEN
281
282 template <class T>
283 struct EndianInt : public EndianIntBase<T> {
284  public:
285   static T big(T x) {
286     return kIsLittleEndian ? EndianInt::swap(x) : x;
287   }
288   static T little(T x) {
289     return kIsBigEndian ? EndianInt::swap(x) : x;
290   }
291 };
292
293 }  // namespace detail
294
295 // big* convert between native and big-endian representations
296 // little* convert between native and little-endian representations
297 // swap* convert between big-endian and little-endian representations
298 //
299 // ntohs, htons == big16
300 // ntohl, htonl == big32
301 #define FB_GEN1(fn, t, sz) \
302   static t fn##sz(t x) { return fn<t>(x); } \
303
304 #define FB_GEN2(t, sz) \
305   FB_GEN1(swap, t, sz) \
306   FB_GEN1(big, t, sz) \
307   FB_GEN1(little, t, sz)
308
309 #define FB_GEN(sz) \
310   FB_GEN2(uint##sz##_t, sz) \
311   FB_GEN2(int##sz##_t, sz)
312
313 class Endian {
314  public:
315   enum class Order : uint8_t {
316     LITTLE,
317     BIG
318   };
319
320   static constexpr Order order = kIsLittleEndian ? Order::LITTLE : Order::BIG;
321
322   template <class T> static T swap(T x) {
323     return folly::detail::EndianInt<T>::swap(x);
324   }
325   template <class T> static T big(T x) {
326     return folly::detail::EndianInt<T>::big(x);
327   }
328   template <class T> static T little(T x) {
329     return folly::detail::EndianInt<T>::little(x);
330   }
331
332 #if !defined(__ANDROID__)
333   FB_GEN(64)
334   FB_GEN(32)
335   FB_GEN(16)
336   FB_GEN(8)
337 #endif
338 };
339
340 #undef FB_GEN
341 #undef FB_GEN2
342 #undef FB_GEN1
343
344 /**
345  * Fast bit iteration facility.
346  */
347
348
349 template <class BaseIter> class BitIterator;
350 template <class BaseIter>
351 BitIterator<BaseIter> findFirstSet(BitIterator<BaseIter>,
352                                    BitIterator<BaseIter>);
353 /**
354  * Wrapper around an iterator over an integer type that iterates
355  * over its underlying bits in LSb to MSb order.
356  *
357  * BitIterator models the same iterator concepts as the base iterator.
358  */
359 template <class BaseIter>
360 class BitIterator
361   : public bititerator_detail::BitIteratorBase<BaseIter>::type {
362  public:
363   /**
364    * Return the number of bits in an element of the underlying iterator.
365    */
366   static unsigned int bitsPerBlock() {
367     return std::numeric_limits<
368       typename std::make_unsigned<
369         typename std::iterator_traits<BaseIter>::value_type
370       >::type
371     >::digits;
372   }
373
374   /**
375    * Construct a BitIterator that points at a given bit offset (default 0)
376    * in iter.
377    */
378   #pragma GCC diagnostic push // bitOffset shadows a member
379   #pragma GCC diagnostic ignored "-Wshadow"
380   explicit BitIterator(const BaseIter& iter, size_t bitOffset=0)
381     : bititerator_detail::BitIteratorBase<BaseIter>::type(iter),
382       bitOffset_(bitOffset) {
383     assert(bitOffset_ < bitsPerBlock());
384   }
385   #pragma GCC diagnostic pop
386
387   size_t bitOffset() const {
388     return bitOffset_;
389   }
390
391   void advanceToNextBlock() {
392     bitOffset_ = 0;
393     ++this->base_reference();
394   }
395
396   BitIterator& operator=(const BaseIter& other) {
397     this->~BitIterator();
398     new (this) BitIterator(other);
399     return *this;
400   }
401
402  private:
403   friend class boost::iterator_core_access;
404   friend BitIterator findFirstSet<>(BitIterator, BitIterator);
405
406   typedef bititerator_detail::BitReference<
407       typename std::iterator_traits<BaseIter>::reference,
408       typename std::iterator_traits<BaseIter>::value_type
409     > BitRef;
410
411   void advanceInBlock(size_t n) {
412     bitOffset_ += n;
413     assert(bitOffset_ < bitsPerBlock());
414   }
415
416   BitRef dereference() const {
417     return BitRef(*this->base_reference(), bitOffset_);
418   }
419
420   void advance(ssize_t n) {
421     size_t bpb = bitsPerBlock();
422     ssize_t blocks = n / bpb;
423     bitOffset_ += n % bpb;
424     if (bitOffset_ >= bpb) {
425       bitOffset_ -= bpb;
426       ++blocks;
427     }
428     this->base_reference() += blocks;
429   }
430
431   void increment() {
432     if (++bitOffset_ == bitsPerBlock()) {
433       advanceToNextBlock();
434     }
435   }
436
437   void decrement() {
438     if (bitOffset_-- == 0) {
439       bitOffset_ = bitsPerBlock() - 1;
440       --this->base_reference();
441     }
442   }
443
444   bool equal(const BitIterator& other) const {
445     return (bitOffset_ == other.bitOffset_ &&
446             this->base_reference() == other.base_reference());
447   }
448
449   ssize_t distance_to(const BitIterator& other) const {
450     return
451       (other.base_reference() - this->base_reference()) * bitsPerBlock() +
452       other.bitOffset_ - bitOffset_;
453   }
454
455   unsigned int bitOffset_;
456 };
457
458 /**
459  * Helper function, so you can write
460  * auto bi = makeBitIterator(container.begin());
461  */
462 template <class BaseIter>
463 BitIterator<BaseIter> makeBitIterator(const BaseIter& iter) {
464   return BitIterator<BaseIter>(iter);
465 }
466
467
468 /**
469  * Find first bit set in a range of bit iterators.
470  * 4.5x faster than the obvious std::find(begin, end, true);
471  */
472 template <class BaseIter>
473 BitIterator<BaseIter> findFirstSet(BitIterator<BaseIter> begin,
474                                    BitIterator<BaseIter> end) {
475   // shortcut to avoid ugly static_cast<>
476   static const typename BaseIter::value_type one = 1;
477
478   while (begin.base() != end.base()) {
479     typename BaseIter::value_type v = *begin.base();
480     // mask out the bits that don't matter (< begin.bitOffset)
481     v &= ~((one << begin.bitOffset()) - 1);
482     size_t firstSet = findFirstSet(v);
483     if (firstSet) {
484       --firstSet;  // now it's 0-based
485       assert(firstSet >= begin.bitOffset());
486       begin.advanceInBlock(firstSet - begin.bitOffset());
487       return begin;
488     }
489     begin.advanceToNextBlock();
490   }
491
492   // now begin points to the same block as end
493   if (end.bitOffset() != 0) {  // assume end is dereferenceable
494     typename BaseIter::value_type v = *begin.base();
495     // mask out the bits that don't matter (< begin.bitOffset)
496     v &= ~((one << begin.bitOffset()) - 1);
497     // mask out the bits that don't matter (>= end.bitOffset)
498     v &= (one << end.bitOffset()) - 1;
499     size_t firstSet = findFirstSet(v);
500     if (firstSet) {
501       --firstSet;  // now it's 0-based
502       assert(firstSet >= begin.bitOffset());
503       begin.advanceInBlock(firstSet - begin.bitOffset());
504       return begin;
505     }
506   }
507
508   return end;
509 }
510
511
512 template <class T, class Enable=void> struct Unaligned;
513
514 /**
515  * Representation of an unaligned value of a POD type.
516  */
517 FOLLY_PACK_PUSH
518 template <class T>
519 struct Unaligned<
520     T,
521     typename std::enable_if<std::is_pod<T>::value>::type> {
522   Unaligned() = default;  // uninitialized
523   /* implicit */ Unaligned(T v) : value(v) { }
524   T value;
525 } FOLLY_PACK_ATTR;
526 FOLLY_PACK_POP
527
528 /**
529  * Read an unaligned value of type T and return it.
530  */
531 template <class T>
532 inline T loadUnaligned(const void* p) {
533   static_assert(sizeof(Unaligned<T>) == sizeof(T), "Invalid unaligned size");
534   static_assert(alignof(Unaligned<T>) == 1, "Invalid alignment");
535   if (kHasUnalignedAccess) {
536     return static_cast<const Unaligned<T>*>(p)->value;
537   } else {
538     T value;
539     memcpy(&value, p, sizeof(T));
540     return value;
541   }
542 }
543
544 /**
545  * Write an unaligned value of type T.
546  */
547 template <class T>
548 inline void storeUnaligned(void* p, T value) {
549   static_assert(sizeof(Unaligned<T>) == sizeof(T), "Invalid unaligned size");
550   static_assert(alignof(Unaligned<T>) == 1, "Invalid alignment");
551   if (kHasUnalignedAccess) {
552     new (p) Unaligned<T>(value);
553   } else {
554     memcpy(p, &value, sizeof(T));
555   }
556 }
557
558 }  // namespace folly