c25ca2800f2907b62da7250553036b9881bb2c8c
[folly.git] / folly / Benchmark.h
1 /*
2  * Copyright 2015 Facebook, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *   http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef FOLLY_BENCHMARK_H_
18 #define FOLLY_BENCHMARK_H_
19
20 #include <folly/ScopeGuard.h>
21 #include <folly/Portability.h>
22 #include <folly/Preprocessor.h> // for FB_ANONYMOUS_VARIABLE
23 #include <cassert>
24 #include <ctime>
25 #include <boost/function_types/function_arity.hpp>
26 #include <functional>
27 #include <glog/logging.h>
28 #include <gflags/gflags.h>
29 #include <limits>
30 #include <type_traits>
31
32 DECLARE_bool(benchmark);
33
34 namespace folly {
35
36 /**
37  * Runs all benchmarks defined. Usually put in main().
38  */
39 void runBenchmarks();
40
41 /**
42  * Runs all benchmarks defined if and only if the --benchmark flag has
43  * been passed to the program. Usually put in main().
44  */
45 inline bool runBenchmarksOnFlag() {
46   if (FLAGS_benchmark) {
47     runBenchmarks();
48   }
49   return FLAGS_benchmark;
50 }
51
52 namespace detail {
53
54 /**
55  * This is the clock ID used for measuring time. On older kernels, the
56  * resolution of this clock will be very coarse, which will cause the
57  * benchmarks to fail.
58  */
59 enum Clock { DEFAULT_CLOCK_ID = CLOCK_REALTIME };
60
61 typedef std::pair<uint64_t, unsigned int> TimeIterPair;
62
63 /**
64  * Adds a benchmark wrapped in a std::function. Only used
65  * internally. Pass by value is intentional.
66  */
67 void addBenchmarkImpl(const char* file,
68                       const char* name,
69                       std::function<TimeIterPair(unsigned int)>);
70
71 /**
72  * Takes the difference between two timespec values. end is assumed to
73  * occur after start.
74  */
75 inline uint64_t timespecDiff(timespec end, timespec start) {
76   if (end.tv_sec == start.tv_sec) {
77     assert(end.tv_nsec >= start.tv_nsec);
78     return end.tv_nsec - start.tv_nsec;
79   }
80   assert(end.tv_sec > start.tv_sec);
81   auto diff = uint64_t(end.tv_sec - start.tv_sec);
82   assert(diff <
83          std::numeric_limits<uint64_t>::max() / 1000000000UL);
84   return diff * 1000000000UL
85     + end.tv_nsec - start.tv_nsec;
86 }
87
88 /**
89  * Takes the difference between two sets of timespec values. The first
90  * two come from a high-resolution clock whereas the other two come
91  * from a low-resolution clock. The crux of the matter is that
92  * high-res values may be bogus as documented in
93  * http://linux.die.net/man/3/clock_gettime. The trouble is when the
94  * running process migrates from one CPU to another, which is more
95  * likely for long-running processes. Therefore we watch for high
96  * differences between the two timings.
97  *
98  * This function is subject to further improvements.
99  */
100 inline uint64_t timespecDiff(timespec end, timespec start,
101                              timespec endCoarse, timespec startCoarse) {
102   auto fine = timespecDiff(end, start);
103   auto coarse = timespecDiff(endCoarse, startCoarse);
104   if (coarse - fine >= 1000000) {
105     // The fine time is in all likelihood bogus
106     return coarse;
107   }
108   return fine;
109 }
110
111 } // namespace detail
112
113 /**
114  * Supporting type for BENCHMARK_SUSPEND defined below.
115  */
116 struct BenchmarkSuspender {
117   BenchmarkSuspender() {
118     CHECK_EQ(0, clock_gettime(detail::DEFAULT_CLOCK_ID, &start));
119   }
120
121   BenchmarkSuspender(const BenchmarkSuspender &) = delete;
122   BenchmarkSuspender(BenchmarkSuspender && rhs) noexcept {
123     start = rhs.start;
124     rhs.start.tv_nsec = rhs.start.tv_sec = 0;
125   }
126
127   BenchmarkSuspender& operator=(const BenchmarkSuspender &) = delete;
128   BenchmarkSuspender& operator=(BenchmarkSuspender && rhs) {
129     if (start.tv_nsec > 0 || start.tv_sec > 0) {
130       tally();
131     }
132     start = rhs.start;
133     rhs.start.tv_nsec = rhs.start.tv_sec = 0;
134     return *this;
135   }
136
137   ~BenchmarkSuspender() {
138     if (start.tv_nsec > 0 || start.tv_sec > 0) {
139       tally();
140     }
141   }
142
143   void dismiss() {
144     assert(start.tv_nsec > 0 || start.tv_sec > 0);
145     tally();
146     start.tv_nsec = start.tv_sec = 0;
147   }
148
149   void rehire() {
150     assert(start.tv_nsec == 0 || start.tv_sec == 0);
151     CHECK_EQ(0, clock_gettime(detail::DEFAULT_CLOCK_ID, &start));
152   }
153
154   template <class F>
155   auto dismissing(F f) -> typename std::result_of<F()>::type {
156     SCOPE_EXIT { rehire(); };
157     dismiss();
158     return f();
159   }
160
161   /**
162    * This is for use inside of if-conditions, used in BENCHMARK macros.
163    * If-conditions bypass the explicit on operator bool.
164    */
165   explicit operator bool() const {
166     return false;
167   }
168
169   /**
170    * Accumulates nanoseconds spent outside benchmark.
171    */
172   typedef uint64_t NanosecondsSpent;
173   static NanosecondsSpent nsSpent;
174
175 private:
176   void tally() {
177     timespec end;
178     CHECK_EQ(0, clock_gettime(detail::DEFAULT_CLOCK_ID, &end));
179     nsSpent += detail::timespecDiff(end, start);
180     start = end;
181   }
182
183   timespec start;
184 };
185
186 /**
187  * Adds a benchmark. Usually not called directly but instead through
188  * the macro BENCHMARK defined below. The lambda function involved
189  * must take exactly one parameter of type unsigned, and the benchmark
190  * uses it with counter semantics (iteration occurs inside the
191  * function).
192  */
193 template <typename Lambda>
194 typename std::enable_if<
195   boost::function_types::function_arity<decltype(&Lambda::operator())>::value
196   == 2
197 >::type
198 addBenchmark(const char* file, const char* name, Lambda&& lambda) {
199   auto execute = [=](unsigned int times) {
200     BenchmarkSuspender::nsSpent = 0;
201     timespec start, end;
202     unsigned int niter;
203
204     // CORE MEASUREMENT STARTS
205     auto const r1 = clock_gettime(detail::DEFAULT_CLOCK_ID, &start);
206     niter = lambda(times);
207     auto const r2 = clock_gettime(detail::DEFAULT_CLOCK_ID, &end);
208     // CORE MEASUREMENT ENDS
209
210     CHECK_EQ(0, r1);
211     CHECK_EQ(0, r2);
212
213     return detail::TimeIterPair(
214       detail::timespecDiff(end, start) - BenchmarkSuspender::nsSpent,
215       niter);
216   };
217
218   detail::addBenchmarkImpl(file, name,
219     std::function<detail::TimeIterPair(unsigned int)>(execute));
220 }
221
222 /**
223  * Adds a benchmark. Usually not called directly but instead through
224  * the macro BENCHMARK defined below. The lambda function involved
225  * must take zero parameters, and the benchmark calls it repeatedly
226  * (iteration occurs outside the function).
227  */
228 template <typename Lambda>
229 typename std::enable_if<
230   boost::function_types::function_arity<decltype(&Lambda::operator())>::value
231   == 1
232 >::type
233 addBenchmark(const char* file, const char* name, Lambda&& lambda) {
234   addBenchmark(file, name, [=](unsigned int times) {
235       unsigned int niter = 0;
236       while (times-- > 0) {
237         niter += lambda();
238       }
239       return niter;
240     });
241 }
242
243 /**
244  * Call doNotOptimizeAway(var) against variables that you use for
245  * benchmarking but otherwise are useless. The compiler tends to do a
246  * good job at eliminating unused variables, and this function fools
247  * it into thinking var is in fact needed.
248  */
249 #ifdef _MSC_VER
250
251 #pragma optimize("", off)
252
253 template <class T>
254 void doNotOptimizeAway(T&& datum) {
255   datum = datum;
256 }
257
258 #pragma optimize("", on)
259
260 #elif defined(__clang__)
261
262 template <class T>
263 __attribute__((__optnone__)) void doNotOptimizeAway(T&& datum) {
264 }
265
266 #else
267
268 template <class T>
269 void doNotOptimizeAway(T&& datum) {
270   asm volatile("" : "+r" (datum));
271 }
272
273 #endif
274
275 } // namespace folly
276
277 /**
278  * Introduces a benchmark function. Used internally, see BENCHMARK and
279  * friends below.
280  */
281 #define BENCHMARK_IMPL(funName, stringName, rv, paramType, paramName)   \
282   static void funName(paramType);                                       \
283   static bool FB_ANONYMOUS_VARIABLE(follyBenchmarkUnused) = (           \
284     ::folly::addBenchmark(__FILE__, stringName,                         \
285       [](paramType paramName) -> unsigned { funName(paramName);         \
286                                             return rv; }),              \
287     true);                                                              \
288   static void funName(paramType paramName)
289
290 /**
291  * Introduces a benchmark function with support for returning the actual
292  * number of iterations. Used internally, see BENCHMARK_MULTI and friends
293  * below.
294  */
295 #define BENCHMARK_MULTI_IMPL(funName, stringName, paramType, paramName) \
296   static unsigned funName(paramType);                                   \
297   static bool FB_ANONYMOUS_VARIABLE(follyBenchmarkUnused) = (           \
298     ::folly::addBenchmark(__FILE__, stringName,                         \
299       [](paramType paramName) { return funName(paramName); }),          \
300     true);                                                              \
301   static unsigned funName(paramType paramName)
302
303 /**
304  * Introduces a benchmark function. Use with either one or two arguments.
305  * The first is the name of the benchmark. Use something descriptive, such
306  * as insertVectorBegin. The second argument may be missing, or could be a
307  * symbolic counter. The counter dictates how many internal iteration the
308  * benchmark does. Example:
309  *
310  * BENCHMARK(vectorPushBack) {
311  *   vector<int> v;
312  *   v.push_back(42);
313  * }
314  *
315  * BENCHMARK(insertVectorBegin, n) {
316  *   vector<int> v;
317  *   FOR_EACH_RANGE (i, 0, n) {
318  *     v.insert(v.begin(), 42);
319  *   }
320  * }
321  */
322 #define BENCHMARK(name, ...)                                    \
323   BENCHMARK_IMPL(                                               \
324     name,                                                       \
325     FB_STRINGIZE(name),                                         \
326     FB_ARG_2_OR_1(1, ## __VA_ARGS__),                           \
327     FB_ONE_OR_NONE(unsigned, ## __VA_ARGS__),                   \
328     __VA_ARGS__)
329
330 /**
331  * Like BENCHMARK above, but allows the user to return the actual
332  * number of iterations executed in the function body. This can be
333  * useful if the benchmark function doesn't know upfront how many
334  * iterations it's going to run or if it runs through a certain
335  * number of test cases, e.g.:
336  *
337  * BENCHMARK_MULTI(benchmarkSomething) {
338  *   std::vector<int> testCases { 0, 1, 1, 2, 3, 5 };
339  *   for (int c : testCases) {
340  *     doSomething(c);
341  *   }
342  *   return testCases.size();
343  * }
344  */
345 #define BENCHMARK_MULTI(name, ...)                              \
346   BENCHMARK_MULTI_IMPL(                                         \
347     name,                                                       \
348     FB_STRINGIZE(name),                                         \
349     FB_ONE_OR_NONE(unsigned, ## __VA_ARGS__),                   \
350     __VA_ARGS__)
351
352 /**
353  * Defines a benchmark that passes a parameter to another one. This is
354  * common for benchmarks that need a "problem size" in addition to
355  * "number of iterations". Consider:
356  *
357  * void pushBack(uint n, size_t initialSize) {
358  *   vector<int> v;
359  *   BENCHMARK_SUSPEND {
360  *     v.resize(initialSize);
361  *   }
362  *   FOR_EACH_RANGE (i, 0, n) {
363  *    v.push_back(i);
364  *   }
365  * }
366  * BENCHMARK_PARAM(pushBack, 0)
367  * BENCHMARK_PARAM(pushBack, 1000)
368  * BENCHMARK_PARAM(pushBack, 1000000)
369  *
370  * The benchmark above estimates the speed of push_back at different
371  * initial sizes of the vector. The framework will pass 0, 1000, and
372  * 1000000 for initialSize, and the iteration count for n.
373  */
374 #define BENCHMARK_PARAM(name, param)                                    \
375   BENCHMARK_NAMED_PARAM(name, param, param)
376
377 /**
378  * Same as BENCHMARK_PARAM, but allows to return the actual number of
379  * iterations that have been run.
380  */
381 #define BENCHMARK_PARAM_MULTI(name, param)                              \
382   BENCHMARK_NAMED_PARAM_MULTI(name, param, param)
383
384 /*
385  * Like BENCHMARK_PARAM(), but allows a custom name to be specified for each
386  * parameter, rather than using the parameter value.
387  *
388  * Useful when the parameter value is not a valid token for string pasting,
389  * of when you want to specify multiple parameter arguments.
390  *
391  * For example:
392  *
393  * void addValue(uint n, int64_t bucketSize, int64_t min, int64_t max) {
394  *   Histogram<int64_t> hist(bucketSize, min, max);
395  *   int64_t num = min;
396  *   FOR_EACH_RANGE (i, 0, n) {
397  *     hist.addValue(num);
398  *     ++num;
399  *     if (num > max) { num = min; }
400  *   }
401  * }
402  *
403  * BENCHMARK_NAMED_PARAM(addValue, 0_to_100, 1, 0, 100)
404  * BENCHMARK_NAMED_PARAM(addValue, 0_to_1000, 10, 0, 1000)
405  * BENCHMARK_NAMED_PARAM(addValue, 5k_to_20k, 250, 5000, 20000)
406  */
407 #define BENCHMARK_NAMED_PARAM(name, param_name, ...)                    \
408   BENCHMARK_IMPL(                                                       \
409       FB_CONCATENATE(name, FB_CONCATENATE(_, param_name)),              \
410       FB_STRINGIZE(name) "(" FB_STRINGIZE(param_name) ")",              \
411       iters,                                                            \
412       unsigned,                                                         \
413       iters) {                                                          \
414     name(iters, ## __VA_ARGS__);                                        \
415   }
416
417 /**
418  * Same as BENCHMARK_NAMED_PARAM, but allows to return the actual number
419  * of iterations that have been run.
420  */
421 #define BENCHMARK_NAMED_PARAM_MULTI(name, param_name, ...)              \
422   BENCHMARK_MULTI_IMPL(                                                 \
423       FB_CONCATENATE(name, FB_CONCATENATE(_, param_name)),              \
424       FB_STRINGIZE(name) "(" FB_STRINGIZE(param_name) ")",              \
425       unsigned,                                                         \
426       iters) {                                                          \
427     return name(iters, ## __VA_ARGS__);                                 \
428   }
429
430 /**
431  * Just like BENCHMARK, but prints the time relative to a
432  * baseline. The baseline is the most recent BENCHMARK() seen in
433  * lexical order. Example:
434  *
435  * // This is the baseline
436  * BENCHMARK(insertVectorBegin, n) {
437  *   vector<int> v;
438  *   FOR_EACH_RANGE (i, 0, n) {
439  *     v.insert(v.begin(), 42);
440  *   }
441  * }
442  *
443  * BENCHMARK_RELATIVE(insertListBegin, n) {
444  *   list<int> s;
445  *   FOR_EACH_RANGE (i, 0, n) {
446  *     s.insert(s.begin(), 42);
447  *   }
448  * }
449  *
450  * Any number of relative benchmark can be associated with a
451  * baseline. Another BENCHMARK() occurrence effectively establishes a
452  * new baseline.
453  */
454 #define BENCHMARK_RELATIVE(name, ...)                           \
455   BENCHMARK_IMPL(                                               \
456     name,                                                       \
457     "%" FB_STRINGIZE(name),                                     \
458     FB_ARG_2_OR_1(1, ## __VA_ARGS__),                           \
459     FB_ONE_OR_NONE(unsigned, ## __VA_ARGS__),                   \
460     __VA_ARGS__)
461
462 /**
463  * Same as BENCHMARK_RELATIVE, but allows to return the actual number
464  * of iterations that have been run.
465  */
466 #define BENCHMARK_RELATIVE_MULTI(name, ...)                     \
467   BENCHMARK_MULTI_IMPL(                                         \
468     name,                                                       \
469     "%" FB_STRINGIZE(name),                                     \
470     FB_ONE_OR_NONE(unsigned, ## __VA_ARGS__),                   \
471     __VA_ARGS__)
472
473 /**
474  * A combination of BENCHMARK_RELATIVE and BENCHMARK_PARAM.
475  */
476 #define BENCHMARK_RELATIVE_PARAM(name, param)                           \
477   BENCHMARK_RELATIVE_NAMED_PARAM(name, param, param)
478
479 /**
480  * Same as BENCHMARK_RELATIVE_PARAM, but allows to return the actual
481  * number of iterations that have been run.
482  */
483 #define BENCHMARK_RELATIVE_PARAM_MULTI(name, param)                     \
484   BENCHMARK_RELATIVE_NAMED_PARAM_MULTI(name, param, param)
485
486 /**
487  * A combination of BENCHMARK_RELATIVE and BENCHMARK_NAMED_PARAM.
488  */
489 #define BENCHMARK_RELATIVE_NAMED_PARAM(name, param_name, ...)           \
490   BENCHMARK_IMPL(                                                       \
491       FB_CONCATENATE(name, FB_CONCATENATE(_, param_name)),              \
492       "%" FB_STRINGIZE(name) "(" FB_STRINGIZE(param_name) ")",          \
493       iters,                                                            \
494       unsigned,                                                         \
495       iters) {                                                          \
496     name(iters, ## __VA_ARGS__);                                        \
497   }
498
499 /**
500  * Same as BENCHMARK_RELATIVE_NAMED_PARAM, but allows to return the
501  * actual number of iterations that have been run.
502  */
503 #define BENCHMARK_RELATIVE_NAMED_PARAM_MULTI(name, param_name, ...)     \
504   BENCHMARK_MULTI_IMPL(                                                 \
505       FB_CONCATENATE(name, FB_CONCATENATE(_, param_name)),              \
506       "%" FB_STRINGIZE(name) "(" FB_STRINGIZE(param_name) ")",          \
507       unsigned,                                                         \
508       iters) {                                                          \
509     return name(iters, ## __VA_ARGS__);                                 \
510   }
511
512 /**
513  * Draws a line of dashes.
514  */
515 #define BENCHMARK_DRAW_LINE()                                             \
516   static bool FB_ANONYMOUS_VARIABLE(follyBenchmarkUnused) = (             \
517     ::folly::addBenchmark(__FILE__, "-", []() -> unsigned { return 0; }), \
518     true);
519
520 /**
521  * Allows execution of code that doesn't count torward the benchmark's
522  * time budget. Example:
523  *
524  * BENCHMARK_START_GROUP(insertVectorBegin, n) {
525  *   vector<int> v;
526  *   BENCHMARK_SUSPEND {
527  *     v.reserve(n);
528  *   }
529  *   FOR_EACH_RANGE (i, 0, n) {
530  *     v.insert(v.begin(), 42);
531  *   }
532  * }
533  */
534 #define BENCHMARK_SUSPEND                               \
535   if (auto FB_ANONYMOUS_VARIABLE(BENCHMARK_SUSPEND) =   \
536       ::folly::BenchmarkSuspender()) {}                 \
537   else
538
539 #endif // FOLLY_BENCHMARK_H_