Delete small_vector's OneBitMutex policy
[folly.git] / folly / small_vector.h
1 /*
2  * Copyright 2014 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 /*
18  * For high-level documentation and usage examples see
19  * folly/docs/small_vector.md
20  *
21  * @author Jordan DeLong <delong.j@fb.com>
22  */
23 #ifndef FOLLY_SMALL_VECTOR_H_
24 #define FOLLY_SMALL_VECTOR_H_
25
26 #include "Portability.h"
27
28 #include <stdexcept>
29 #include <cstdlib>
30 #include <type_traits>
31 #include <algorithm>
32 #include <iterator>
33 #include <cassert>
34
35 #include <boost/operators.hpp>
36 #include <boost/type_traits.hpp>
37 #include <boost/mpl/if.hpp>
38 #include <boost/mpl/eval_if.hpp>
39 #include <boost/mpl/vector.hpp>
40 #include <boost/mpl/front.hpp>
41 #include <boost/mpl/filter_view.hpp>
42 #include <boost/mpl/identity.hpp>
43 #include <boost/mpl/placeholders.hpp>
44 #include <boost/mpl/empty.hpp>
45 #include <boost/mpl/size.hpp>
46 #include <boost/mpl/count.hpp>
47 #include <boost/mpl/max.hpp>
48
49 #include "folly/Malloc.h"
50
51 #if defined(__GNUC__) && FOLLY_X64
52 # include "folly/SmallLocks.h"
53 # define FB_PACK_ATTR FOLLY_PACK_ATTR
54 # define FB_PACK_PUSH FOLLY_PACK_PUSH
55 # define FB_PACK_POP FOLLY_PACK_POP
56 #else
57 # define FB_PACK_ATTR
58 # define FB_PACK_PUSH
59 # define FB_PACK_POP
60 #endif
61
62 #if FOLLY_HAVE_MALLOC_SIZE
63   extern "C" std::size_t malloc_size(const void*);
64 # if !FOLLY_HAVE_MALLOC_USABLE_SIZE
65 #  define malloc_usable_size malloc_size
66 # endif
67 # ifndef malloc_usable_size
68 #  define malloc_usable_size malloc_size
69 # endif
70 #endif
71
72 // Ignore shadowing warnings within this file, so includers can use -Wshadow.
73 #pragma GCC diagnostic push
74 #pragma GCC diagnostic ignored "-Wshadow"
75
76 namespace folly {
77
78 //////////////////////////////////////////////////////////////////////
79
80 namespace small_vector_policy {
81
82 //////////////////////////////////////////////////////////////////////
83
84 /*
85  * A flag which makes us refuse to use the heap at all.  If we
86  * overflow the in situ capacity we throw an exception.
87  */
88 struct NoHeap;
89
90 //////////////////////////////////////////////////////////////////////
91
92 } // small_vector_policy
93
94 //////////////////////////////////////////////////////////////////////
95
96 template<class T, std::size_t M, class A, class B, class C>
97 class small_vector;
98
99 //////////////////////////////////////////////////////////////////////
100
101 namespace detail {
102
103   /*
104    * Move a range to a range of uninitialized memory.  Assumes the
105    * ranges don't overlap.
106    */
107   template<class T>
108   typename std::enable_if<
109     !FOLLY_IS_TRIVIALLY_COPYABLE(T)
110   >::type
111   moveToUninitialized(T* first, T* last, T* out) {
112     auto const count = last - first;
113     std::size_t idx = 0;
114     try {
115       for (; idx < count; ++first, ++idx) {
116         new (&out[idx]) T(std::move(*first));
117       }
118     } catch (...) {
119       // Even for callers trying to give the strong guarantee
120       // (e.g. push_back) it's ok to assume here that we don't have to
121       // move things back and that it was a copy constructor that
122       // threw: if someone throws from a move constructor the effects
123       // are unspecified.
124       for (std::size_t i = 0; i < idx; ++i) {
125         out[i].~T();
126       }
127       throw;
128     }
129   }
130
131   // Specialization for trivially copyable types.
132   template<class T>
133   typename std::enable_if<
134     FOLLY_IS_TRIVIALLY_COPYABLE(T)
135   >::type
136   moveToUninitialized(T* first, T* last, T* out) {
137     std::memmove(out, first, (last - first) * sizeof *first);
138   }
139
140   /*
141    * Move objects in memory to the right into some uninitialized
142    * memory, where the region overlaps.  This doesn't just use
143    * std::move_backward because move_backward only works if all the
144    * memory is initialized to type T already.
145    */
146   template<class T>
147   typename std::enable_if<
148     !FOLLY_IS_TRIVIALLY_COPYABLE(T)
149   >::type
150   moveObjectsRight(T* first, T* lastConstructed, T* realLast) {
151     if (lastConstructed == realLast) {
152       return;
153     }
154
155     T* end = first - 1; // Past the end going backwards.
156     T* out = realLast - 1;
157     T* in = lastConstructed - 1;
158     try {
159       for (; in != end && out >= lastConstructed; --in, --out) {
160         new (out) T(std::move(*in));
161       }
162       for (; in != end; --in, --out) {
163         *out = std::move(*in);
164       }
165       for (; out >= lastConstructed; --out) {
166         new (out) T();
167       }
168     } catch (...) {
169       // We want to make sure the same stuff is uninitialized memory
170       // if we exit via an exception (this is to make sure we provide
171       // the basic exception safety guarantee for insert functions).
172       if (out < lastConstructed) {
173         out = lastConstructed - 1;
174       }
175       for (auto it = out + 1; it != realLast; ++it) {
176         it->~T();
177       }
178       throw;
179     }
180   }
181
182   // Specialization for trivially copyable types.  The call to
183   // std::move_backward here will just turn into a memmove.  (TODO:
184   // change to std::is_trivially_copyable when that works.)
185   template<class T>
186   typename std::enable_if<
187     FOLLY_IS_TRIVIALLY_COPYABLE(T)
188   >::type
189   moveObjectsRight(T* first, T* lastConstructed, T* realLast) {
190     std::move_backward(first, lastConstructed, realLast);
191   }
192
193   /*
194    * Populate a region of memory using `op' to construct elements.  If
195    * anything throws, undo what we did.
196    */
197   template<class T, class Function>
198   void populateMemForward(T* mem, std::size_t n, Function const& op) {
199     std::size_t idx = 0;
200     try {
201       for (size_t i = 0; i < n; ++i) {
202         op(&mem[idx]);
203         ++idx;
204       }
205     } catch (...) {
206       for (std::size_t i = 0; i < idx; ++i) {
207         mem[i].~T();
208       }
209       throw;
210     }
211   }
212
213   template<class SizeType, bool ShouldUseHeap>
214   struct IntegralSizePolicy {
215     typedef SizeType InternalSizeType;
216
217     IntegralSizePolicy() : size_(0) {}
218
219   protected:
220     static constexpr std::size_t policyMaxSize() {
221       return SizeType(~kExternMask);
222     }
223
224     std::size_t doSize() const {
225       return size_ & ~kExternMask;
226     }
227
228     std::size_t isExtern() const {
229       return kExternMask & size_;
230     }
231
232     void setExtern(bool b) {
233       if (b) {
234         size_ |= kExternMask;
235       } else {
236         size_ &= ~kExternMask;
237       }
238     }
239
240     void setSize(std::size_t sz) {
241       assert(sz <= policyMaxSize());
242       size_ = (kExternMask & size_) | SizeType(sz);
243     }
244
245     void swapSizePolicy(IntegralSizePolicy& o) {
246       std::swap(size_, o.size_);
247     }
248
249   protected:
250     static bool const kShouldUseHeap = ShouldUseHeap;
251
252   private:
253     static SizeType const kExternMask =
254       kShouldUseHeap ? SizeType(1) << (sizeof(SizeType) * 8 - 1)
255                      : 0;
256
257     SizeType size_;
258   };
259
260   /*
261    * If you're just trying to use this class, ignore everything about
262    * this next small_vector_base class thing.
263    *
264    * The purpose of this junk is to minimize sizeof(small_vector<>)
265    * and allow specifying the template parameters in whatever order is
266    * convenient for the user.  There's a few extra steps here to try
267    * to keep the error messages at least semi-reasonable.
268    *
269    * Apologies for all the black magic.
270    */
271   namespace mpl = boost::mpl;
272   template<class Value,
273            std::size_t RequestedMaxInline,
274            class InPolicyA,
275            class InPolicyB,
276            class InPolicyC>
277   struct small_vector_base {
278     typedef mpl::vector<InPolicyA,InPolicyB,InPolicyC> PolicyList;
279
280     /*
281      * Determine the size type
282      */
283     typedef typename mpl::filter_view<
284       PolicyList,
285       boost::is_integral<mpl::placeholders::_1>
286     >::type Integrals;
287     typedef typename mpl::eval_if<
288       mpl::empty<Integrals>,
289       mpl::identity<std::size_t>,
290       mpl::front<Integrals>
291     >::type SizeType;
292
293     static_assert(std::is_unsigned<SizeType>::value,
294                   "Size type should be an unsigned integral type");
295     static_assert(mpl::size<Integrals>::value == 0 ||
296                     mpl::size<Integrals>::value == 1,
297                   "Multiple size types specified in small_vector<>");
298
299     /*
300      * Determine whether we should allow spilling to the heap or not.
301      */
302     typedef typename mpl::count<
303       PolicyList,small_vector_policy::NoHeap
304     >::type HasNoHeap;
305
306     static_assert(HasNoHeap::value == 0 || HasNoHeap::value == 1,
307                   "Multiple copies of small_vector_policy::NoHeap "
308                   "supplied; this is probably a mistake");
309
310     /*
311      * Make the real policy base classes.
312      */
313     typedef IntegralSizePolicy<SizeType,!HasNoHeap::value>
314       ActualSizePolicy;
315
316     /*
317      * Now inherit from them all.  This is done in such a convoluted
318      * way to make sure we get the empty base optimizaton on all these
319      * types to keep sizeof(small_vector<>) minimal.
320      */
321     typedef boost::totally_ordered1<
322       small_vector<Value,RequestedMaxInline,InPolicyA,InPolicyB,InPolicyC>,
323       ActualSizePolicy
324     > type;
325   };
326
327   template <class T>
328   T* pointerFlagSet(T* p) {
329     return reinterpret_cast<T*>(reinterpret_cast<uintptr_t>(p) | 1);
330   }
331   template <class T>
332   bool pointerFlagGet(T* p) {
333     return reinterpret_cast<uintptr_t>(p) & 1;
334   }
335   template <class T>
336   T* pointerFlagClear(T* p) {
337     return reinterpret_cast<T*>(
338       reinterpret_cast<uintptr_t>(p) & ~uintptr_t(1));
339   }
340   inline void* shiftPointer(void* p, size_t sizeBytes) {
341     return static_cast<char*>(p) + sizeBytes;
342   }
343 }
344
345 //////////////////////////////////////////////////////////////////////
346 FB_PACK_PUSH
347 template<class Value,
348          std::size_t RequestedMaxInline    = 1,
349          class PolicyA                     = void,
350          class PolicyB                     = void,
351          class PolicyC                     = void>
352 class small_vector
353   : public detail::small_vector_base<
354       Value,RequestedMaxInline,PolicyA,PolicyB,PolicyC
355     >::type
356 {
357   typedef typename detail::small_vector_base<
358     Value,RequestedMaxInline,PolicyA,PolicyB,PolicyC
359   >::type BaseType;
360   typedef typename BaseType::InternalSizeType InternalSizeType;
361
362   /*
363    * Figure out the max number of elements we should inline.  (If
364    * the user asks for less inlined elements than we can fit unioned
365    * into our value_type*, we will inline more than they asked.)
366    */
367   enum {
368     MaxInline = boost::mpl::max<
369                   boost::mpl::int_<sizeof(Value*) / sizeof(Value)>,
370                   boost::mpl::int_<RequestedMaxInline>
371                 >::type::value
372   };
373
374 public:
375   typedef std::size_t size_type;
376   typedef Value              value_type;
377   typedef value_type&        reference;
378   typedef value_type const&  const_reference;
379   typedef value_type*        iterator;
380   typedef value_type const*  const_iterator;
381   typedef std::ptrdiff_t     difference_type;
382
383   typedef std::reverse_iterator<iterator>       reverse_iterator;
384   typedef std::reverse_iterator<const_iterator> const_reverse_iterator;
385
386   explicit small_vector() {}
387
388   small_vector(small_vector const& o) {
389     assign(o.begin(), o.end());
390   }
391
392   small_vector(small_vector&& o) {
393     *this = std::move(o);
394   }
395
396   small_vector(std::initializer_list<value_type> il) {
397     constructImpl(il.begin(), il.end(), std::false_type());
398   }
399
400   explicit small_vector(size_type n, value_type const& t = value_type()) {
401     doConstruct(n, t);
402   }
403
404   template<class Arg>
405   explicit small_vector(Arg arg1, Arg arg2)  {
406     // Forward using std::is_arithmetic to get to the proper
407     // implementation; this disambiguates between the iterators and
408     // (size_t, value_type) meaning for this constructor.
409     constructImpl(arg1, arg2, std::is_arithmetic<Arg>());
410   }
411
412   ~small_vector() {
413     for (auto& t : *this) {
414       (&t)->~value_type();
415     }
416     if (this->isExtern()) {
417       u.freeHeap();
418     }
419   }
420
421   small_vector& operator=(small_vector const& o) {
422     assign(o.begin(), o.end());
423     return *this;
424   }
425
426   small_vector& operator=(small_vector&& o) {
427     clear();
428     if (!o.isExtern()) {
429       makeSize(o.size());
430       for (std::size_t i = 0; i < o.size(); ++i) {
431         new (data() + i) value_type(std::move(o[i]));
432       }
433       this->setSize(o.size());
434     } else {
435       swap(o);
436     }
437     return *this;
438   }
439
440   bool operator==(small_vector const& o) const {
441     return size() == o.size() && std::equal(begin(), end(), o.begin());
442   }
443
444   bool operator<(small_vector const& o) const {
445     return std::lexicographical_compare(begin(), end(), o.begin(), o.end());
446   }
447
448   static constexpr size_type max_size() {
449     return !BaseType::kShouldUseHeap ? MaxInline
450                                      : BaseType::policyMaxSize();
451   }
452
453   size_type size()         const { return this->doSize(); }
454   bool      empty()        const { return !size(); }
455
456   iterator       begin()         { return data(); }
457   iterator       end()           { return data() + size(); }
458   const_iterator begin()   const { return data(); }
459   const_iterator end()     const { return data() + size(); }
460   const_iterator cbegin()  const { return begin(); }
461   const_iterator cend()    const { return end(); }
462
463   reverse_iterator       rbegin()        { return reverse_iterator(end()); }
464   reverse_iterator       rend()          { return reverse_iterator(begin()); }
465
466   const_reverse_iterator rbegin() const {
467     return const_reverse_iterator(end());
468   }
469
470   const_reverse_iterator rend() const {
471     return const_reverse_iterator(begin());
472   }
473
474   const_reverse_iterator crbegin() const { return rbegin(); }
475   const_reverse_iterator crend()   const { return rend(); }
476
477   /*
478    * Usually one of the simplest functions in a Container-like class
479    * but a bit more complex here.  We have to handle all combinations
480    * of in-place vs. heap between this and o.
481    *
482    * Basic guarantee only.  Provides the nothrow guarantee iff our
483    * value_type has a nothrow move or copy constructor.
484    */
485   void swap(small_vector& o) {
486     using std::swap; // Allow ADL on swap for our value_type.
487
488     if (this->isExtern() && o.isExtern()) {
489       this->swapSizePolicy(o);
490
491       auto thisCapacity = this->capacity();
492       auto oCapacity = o.capacity();
493
494       std::swap(unpackHack(&u.pdata_.heap_), unpackHack(&o.u.pdata_.heap_));
495
496       this->setCapacity(oCapacity);
497       o.setCapacity(thisCapacity);
498
499       return;
500     }
501
502     if (!this->isExtern() && !o.isExtern()) {
503       auto& oldSmall = size() < o.size() ? *this : o;
504       auto& oldLarge = size() < o.size() ? o : *this;
505
506       for (size_type i = 0; i < oldSmall.size(); ++i) {
507         swap(oldSmall[i], oldLarge[i]);
508       }
509
510       size_type i = oldSmall.size();
511       try {
512         for (; i < oldLarge.size(); ++i) {
513           new (&oldSmall[i]) value_type(std::move(oldLarge[i]));
514           oldLarge[i].~value_type();
515         }
516       } catch (...) {
517         for (; i < oldLarge.size(); ++i) {
518           oldLarge[i].~value_type();
519         }
520         oldLarge.setSize(oldSmall.size());
521         throw;
522       }
523       this->swapSizePolicy(o);
524       return;
525     }
526
527     // isExtern != o.isExtern()
528     auto& oldExtern = o.isExtern() ? o : *this;
529     auto& oldIntern = o.isExtern() ? *this : o;
530
531     auto oldExternCapacity = oldExtern.capacity();
532     auto oldExternHeap     = oldExtern.u.pdata_.heap_;
533
534     auto buff = oldExtern.u.buffer();
535     size_type i = 0;
536     try {
537       for (; i < oldIntern.size(); ++i) {
538         new (&buff[i]) value_type(std::move(oldIntern[i]));
539         oldIntern[i].~value_type();
540       }
541     } catch (...) {
542       for (size_type kill = 0; kill < i; ++kill) {
543         buff[kill].~value_type();
544       }
545       for (; i < oldIntern.size(); ++i) {
546         oldIntern[i].~value_type();
547       }
548       oldIntern.setSize(0);
549       oldExtern.u.pdata_.heap_ = oldExternHeap;
550       oldExtern.setCapacity(oldExternCapacity);
551       throw;
552     }
553     oldIntern.u.pdata_.heap_ = oldExternHeap;
554     this->swapSizePolicy(o);
555     oldIntern.setCapacity(oldExternCapacity);
556   }
557
558   void resize(size_type sz) {
559     if (sz < size()) {
560       erase(begin() + sz, end());
561       return;
562     }
563     makeSize(sz);
564     detail::populateMemForward(begin() + size(), sz - size(),
565       [&] (void* p) { new (p) value_type(); }
566     );
567     this->setSize(sz);
568   }
569
570   void resize(size_type sz, value_type const& v) {
571     if (sz < size()) {
572       erase(begin() + sz, end());
573       return;
574     }
575     makeSize(sz);
576     detail::populateMemForward(begin() + size(), sz - size(),
577       [&] (void* p) { new (p) value_type(v); }
578     );
579     this->setSize(sz);
580   }
581
582   value_type* data() noexcept {
583     return this->isExtern() ? u.heap() : u.buffer();
584   }
585
586   value_type const* data() const noexcept {
587     return this->isExtern() ? u.heap() : u.buffer();
588   }
589
590   template<class ...Args>
591   iterator emplace(const_iterator p, Args&&... args) {
592     if (p == cend()) {
593       emplace_back(std::forward<Args>(args)...);
594       return end() - 1;
595     }
596
597     /*
598      * We implement emplace at places other than at the back with a
599      * temporary for exception safety reasons.  It is possible to
600      * avoid having to do this, but it becomes hard to maintain the
601      * basic exception safety guarantee (unless you respond to a copy
602      * constructor throwing by clearing the whole vector).
603      *
604      * The reason for this is that otherwise you have to destruct an
605      * element before constructing this one in its place---if the
606      * constructor throws, you either need a nothrow default
607      * constructor or a nothrow copy/move to get something back in the
608      * "gap", and the vector requirements don't guarantee we have any
609      * of these.  Clearing the whole vector is a legal response in
610      * this situation, but it seems like this implementation is easy
611      * enough and probably better.
612      */
613     return insert(p, value_type(std::forward<Args>(args)...));
614   }
615
616   void reserve(size_type sz) {
617     makeSize(sz);
618   }
619
620   size_type capacity() const {
621     if (this->isExtern()) {
622       if (u.hasCapacity()) {
623         return *u.getCapacity();
624       }
625       return malloc_usable_size(u.pdata_.heap_) / sizeof(value_type);
626     }
627     return MaxInline;
628   }
629
630   void shrink_to_fit() {
631     if (!this->isExtern()) {
632       return;
633     }
634
635     small_vector tmp(begin(), end());
636     tmp.swap(*this);
637   }
638
639   template<class ...Args>
640   void emplace_back(Args&&... args) {
641     // call helper function for static dispatch of special cases
642     emplaceBack(std::forward<Args>(args)...);
643   }
644
645   void push_back(value_type&& t) {
646     if (capacity() == size()) {
647       makeSize(std::max(size_type(2), 3 * size() / 2), &t, size());
648     } else {
649       new (end()) value_type(std::move(t));
650     }
651     this->setSize(size() + 1);
652   }
653
654   void push_back(value_type const& t) {
655     // Make a copy and forward to the rvalue value_type&& overload
656     // above.
657     push_back(value_type(t));
658   }
659
660   void pop_back() {
661     erase(end() - 1);
662   }
663
664   iterator insert(const_iterator constp, value_type&& t) {
665     iterator p = unconst(constp);
666
667     if (p == end()) {
668       push_back(std::move(t));
669       return end() - 1;
670     }
671
672     auto offset = p - begin();
673
674     if (capacity() == size()) {
675       makeSize(size() + 1, &t, offset);
676       this->setSize(this->size() + 1);
677     } else {
678       makeSize(size() + 1);
679       detail::moveObjectsRight(data() + offset,
680                                data() + size(),
681                                data() + size() + 1);
682       this->setSize(size() + 1);
683       data()[offset] = std::move(t);
684     }
685     return begin() + offset;
686
687   }
688
689   iterator insert(const_iterator p, value_type const& t) {
690     // Make a copy and forward to the rvalue value_type&& overload
691     // above.
692     return insert(p, value_type(t));
693   }
694
695   iterator insert(const_iterator pos, size_type n, value_type const& val) {
696     auto offset = pos - begin();
697     makeSize(size() + n);
698     detail::moveObjectsRight(data() + offset,
699                              data() + size(),
700                              data() + size() + n);
701     this->setSize(size() + n);
702     std::generate_n(begin() + offset, n, [&] { return val; });
703     return begin() + offset;
704   }
705
706   template<class Arg>
707   iterator insert(const_iterator p, Arg arg1, Arg arg2) {
708     // Forward using std::is_arithmetic to get to the proper
709     // implementation; this disambiguates between the iterators and
710     // (size_t, value_type) meaning for this function.
711     return insertImpl(unconst(p), arg1, arg2, std::is_arithmetic<Arg>());
712   }
713
714   iterator insert(const_iterator p, std::initializer_list<value_type> il) {
715     return insert(p, il.begin(), il.end());
716   }
717
718   iterator erase(const_iterator q) {
719     std::move(unconst(q) + 1, end(), unconst(q));
720     (data() + size() - 1)->~value_type();
721     this->setSize(size() - 1);
722     return unconst(q);
723   }
724
725   iterator erase(const_iterator q1, const_iterator q2) {
726     std::move(unconst(q2), end(), unconst(q1));
727     for (auto it = q1; it != end(); ++it) {
728       it->~value_type();
729     }
730     this->setSize(size() - (q2 - q1));
731     return unconst(q1);
732   }
733
734   void clear() {
735     erase(begin(), end());
736   }
737
738   template<class Arg>
739   void assign(Arg first, Arg last) {
740     clear();
741     insert(end(), first, last);
742   }
743
744   void assign(std::initializer_list<value_type> il) {
745     assign(il.begin(), il.end());
746   }
747
748   void assign(size_type n, const value_type& t) {
749     clear();
750     insert(end(), n, t);
751   }
752
753   reference front()             { assert(!empty()); return *begin(); }
754   reference back()              { assert(!empty()); return *(end() - 1); }
755   const_reference front() const { assert(!empty()); return *begin(); }
756   const_reference back() const  { assert(!empty()); return *(end() - 1); }
757
758   reference operator[](size_type i) {
759     assert(i < size());
760     return *(begin() + i);
761   }
762
763   const_reference operator[](size_type i) const {
764     assert(i < size());
765     return *(begin() + i);
766   }
767
768   reference at(size_type i) {
769     if (i >= size()) {
770       throw std::out_of_range("index out of range");
771     }
772     return (*this)[i];
773   }
774
775   const_reference at(size_type i) const {
776     if (i >= size()) {
777       throw std::out_of_range("index out of range");
778     }
779     return (*this)[i];
780   }
781
782 private:
783
784   /*
785    * This is doing the same like emplace_back, but we need this helper
786    * to catch the special case - see the next overload function..
787    */
788   template<class ...Args>
789   void emplaceBack(Args&&... args) {
790     makeSize(size() + 1);
791     new (end()) value_type(std::forward<Args>(args)...);
792     this->setSize(size() + 1);
793   }
794
795   /*
796    * Special case of emplaceBack for rvalue
797    */
798   void emplaceBack(value_type&& t) {
799     push_back(std::move(t));
800   }
801
802   static iterator unconst(const_iterator it) {
803     return const_cast<iterator>(it);
804   }
805
806   /*
807    * g++ doesn't allow you to bind a non-const reference to a member
808    * of a packed structure, presumably because it would make it too
809    * easy to accidentally make an unaligned memory access?
810    */
811   template<class T> static T& unpackHack(T* p) {
812     return *p;
813   }
814
815   // The std::false_type argument is part of disambiguating the
816   // iterator insert functions from integral types (see insert().)
817   template<class It>
818   iterator insertImpl(iterator pos, It first, It last, std::false_type) {
819     typedef typename std::iterator_traits<It>::iterator_category categ;
820     if (std::is_same<categ,std::input_iterator_tag>::value) {
821       auto offset = pos - begin();
822       while (first != last) {
823         pos = insert(pos, *first++);
824         ++pos;
825       }
826       return begin() + offset;
827     }
828
829     auto distance = std::distance(first, last);
830     auto offset = pos - begin();
831     makeSize(size() + distance);
832     detail::moveObjectsRight(data() + offset,
833                              data() + size(),
834                              data() + size() + distance);
835     this->setSize(size() + distance);
836     std::copy_n(first, distance, begin() + offset);
837     return begin() + offset;
838   }
839
840   iterator insertImpl(iterator pos, size_type n, const value_type& val,
841       std::true_type) {
842     // The true_type means this should call the size_t,value_type
843     // overload.  (See insert().)
844     return insert(pos, n, val);
845   }
846
847   // The std::false_type argument came from std::is_arithmetic as part
848   // of disambiguating an overload (see the comment in the
849   // constructor).
850   template<class It>
851   void constructImpl(It first, It last, std::false_type) {
852     typedef typename std::iterator_traits<It>::iterator_category categ;
853     if (std::is_same<categ,std::input_iterator_tag>::value) {
854       // With iterators that only allow a single pass, we can't really
855       // do anything sane here.
856       while (first != last) {
857         push_back(*first++);
858       }
859       return;
860     }
861
862     auto distance = std::distance(first, last);
863     makeSize(distance);
864     this->setSize(distance);
865
866     detail::populateMemForward(data(), distance,
867       [&] (void* p) { new (p) value_type(*first++); }
868     );
869   }
870
871   void doConstruct(size_type n, value_type const& val) {
872     makeSize(n);
873     this->setSize(n);
874     detail::populateMemForward(data(), n,
875       [&] (void* p) { new (p) value_type(val); }
876     );
877   }
878
879   // The true_type means we should forward to the size_t,value_type
880   // overload.
881   void constructImpl(size_type n, value_type const& val, std::true_type) {
882     doConstruct(n, val);
883   }
884
885   void makeSize(size_type size, value_type* v = nullptr) {
886     makeSize(size, v, size - 1);
887   }
888
889   /*
890    * Ensure we have a large enough memory region to be size `size'.
891    * Will move/copy elements if we are spilling to heap_ or needed to
892    * allocate a new region, but if resized in place doesn't initialize
893    * anything in the new region.  In any case doesn't change size().
894    * Supports insertion of new element during reallocation by given
895    * pointer to new element and position of new element.
896    * NOTE: If reallocation is not needed, and new element should be
897    * inserted in the middle of vector (not at the end), do the move
898    * objects and insertion outside the function, otherwise exception is thrown.
899    */
900   void makeSize(size_type size, value_type* v, size_type pos) {
901     if (size > this->max_size()) {
902       throw std::length_error("max_size exceeded in small_vector");
903     }
904     if (size <= this->capacity()) {
905       return;
906     }
907
908     auto needBytes = size * sizeof(value_type);
909     // If the capacity isn't explicitly stored inline, but the heap
910     // allocation is grown to over some threshold, we should store
911     // a capacity at the front of the heap allocation.
912     bool heapifyCapacity =
913       !kHasInlineCapacity && needBytes > kHeapifyCapacityThreshold;
914     if (heapifyCapacity) {
915       needBytes += kHeapifyCapacitySize;
916     }
917     auto const sizeBytes = goodMallocSize(needBytes);
918     void* newh = checkedMalloc(sizeBytes);
919     // We expect newh to be at least 2-aligned, because we want to
920     // use its least significant bit as a flag.
921     assert(!detail::pointerFlagGet(newh));
922
923     value_type* newp = static_cast<value_type*>(
924       heapifyCapacity ?
925         detail::shiftPointer(newh, kHeapifyCapacitySize) :
926         newh);
927
928     if (v != nullptr) {
929       // move new element
930       try {
931         new (&newp[pos]) value_type(std::move(*v));
932       } catch (...) {
933         free(newh);
934         throw;
935       }
936
937       // move old elements to the left of the new one
938       try {
939         detail::moveToUninitialized(begin(), begin() + pos, newp);
940       } catch (...) {
941         newp[pos].~value_type();
942         free(newh);
943         throw;
944       }
945
946       // move old elements to the right of the new one
947       try {
948         if (pos < size-1) {
949           detail::moveToUninitialized(begin() + pos, end(), newp + pos + 1);
950         }
951       } catch (...) {
952         for (size_type i = 0; i <= pos; ++i) {
953           newp[i].~value_type();
954         }
955         free(newh);
956         throw;
957       }
958     } else {
959       // move without inserting new element
960       try {
961         detail::moveToUninitialized(begin(), end(), newp);
962       } catch (...) {
963         free(newh);
964         throw;
965       }
966     }
967     for (auto& val : *this) {
968       val.~value_type();
969     }
970
971     if (this->isExtern()) {
972       u.freeHeap();
973     }
974     auto availableSizeBytes = sizeBytes;
975     if (heapifyCapacity) {
976       u.pdata_.heap_ = detail::pointerFlagSet(newh);
977       availableSizeBytes -= kHeapifyCapacitySize;
978     } else {
979       u.pdata_.heap_ = newh;
980     }
981     this->setExtern(true);
982     this->setCapacity(availableSizeBytes / sizeof(value_type));
983   }
984
985   /*
986    * This will set the capacity field, stored inline in the storage_ field
987    * if there is sufficient room to store it.
988    */
989   void setCapacity(size_type newCapacity) {
990     assert(this->isExtern());
991     if (u.hasCapacity()) {
992       assert(newCapacity < std::numeric_limits<InternalSizeType>::max());
993       *u.getCapacity() = InternalSizeType(newCapacity);
994     }
995   }
996
997 private:
998   struct HeapPtrWithCapacity {
999     void* heap_;
1000     InternalSizeType capacity_;
1001
1002     InternalSizeType* getCapacity() {
1003       return &capacity_;
1004     }
1005   } FB_PACK_ATTR;
1006
1007   struct HeapPtr {
1008     // Lower order bit of heap_ is used as flag to indicate whether capacity is
1009     // stored at the front of the heap allocation.
1010     void* heap_;
1011
1012     InternalSizeType* getCapacity() {
1013       assert(detail::pointerFlagGet(heap_));
1014       return static_cast<InternalSizeType*>(
1015         detail::pointerFlagClear(heap_));
1016     }
1017   } FB_PACK_ATTR;
1018
1019 #if FOLLY_X64
1020   typedef unsigned char InlineStorageType[sizeof(value_type) * MaxInline];
1021 #else
1022   typedef typename std::aligned_storage<
1023     sizeof(value_type) * MaxInline,
1024     alignof(value_type)
1025   >::type InlineStorageType;
1026 #endif
1027
1028   static bool const kHasInlineCapacity =
1029     sizeof(HeapPtrWithCapacity) < sizeof(InlineStorageType);
1030
1031   // This value should we multiple of word size.
1032   static size_t const kHeapifyCapacitySize = sizeof(
1033     typename std::aligned_storage<
1034       sizeof(InternalSizeType),
1035       alignof(value_type)
1036     >::type);
1037   // Threshold to control capacity heapifying.
1038   static size_t const kHeapifyCapacityThreshold =
1039     100 * kHeapifyCapacitySize;
1040
1041   typedef typename std::conditional<
1042     kHasInlineCapacity,
1043     HeapPtrWithCapacity,
1044     HeapPtr
1045   >::type PointerType;
1046
1047   union Data {
1048     explicit Data() { pdata_.heap_ = 0; }
1049
1050     PointerType pdata_;
1051     InlineStorageType storage_;
1052
1053     value_type* buffer() noexcept {
1054       void* vp = &storage_;
1055       return static_cast<value_type*>(vp);
1056     }
1057     value_type const* buffer() const noexcept {
1058       return const_cast<Data*>(this)->buffer();
1059     }
1060     value_type* heap() noexcept {
1061       if (kHasInlineCapacity || !detail::pointerFlagGet(pdata_.heap_)) {
1062         return static_cast<value_type*>(pdata_.heap_);
1063       }
1064       return static_cast<value_type*>(
1065         detail::shiftPointer(
1066           detail::pointerFlagClear(pdata_.heap_), kHeapifyCapacitySize));
1067     }
1068     value_type const* heap() const noexcept {
1069       return const_cast<Data*>(this)->heap();
1070     }
1071
1072     bool hasCapacity() const {
1073       return kHasInlineCapacity || detail::pointerFlagGet(pdata_.heap_);
1074     }
1075     InternalSizeType* getCapacity() {
1076       return pdata_.getCapacity();
1077     }
1078     InternalSizeType* getCapacity() const {
1079       return const_cast<Data*>(this)->getCapacity();
1080     }
1081
1082     void freeHeap() {
1083       auto vp = detail::pointerFlagClear(pdata_.heap_);
1084       free(vp);
1085     }
1086   } FB_PACK_ATTR u;
1087 } FB_PACK_ATTR;
1088 FB_PACK_POP
1089
1090 //////////////////////////////////////////////////////////////////////
1091
1092 // Basic guarantee only, or provides the nothrow guarantee iff T has a
1093 // nothrow move or copy constructor.
1094 template<class T, std::size_t MaxInline, class A, class B, class C>
1095 void swap(small_vector<T,MaxInline,A,B,C>& a,
1096           small_vector<T,MaxInline,A,B,C>& b) {
1097   a.swap(b);
1098 }
1099
1100 //////////////////////////////////////////////////////////////////////
1101
1102 }
1103
1104 #pragma GCC diagnostic pop
1105
1106 #ifdef FB_PACK_ATTR
1107 # undef FB_PACK_ATTR
1108 # undef FB_PACK_PUSH
1109 # undef FB_PACK_POP
1110 #endif
1111
1112 #endif