folly::FunctionScheduler: Adding support for uniform interval distribution
[folly.git] / folly / Malloc.cpp
index d81c30d23119ed26637c6f6e1d586b8b321c622f..aa2175c7f165c945da569b6aa2ee8250cdbd8c84 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright 2014 Facebook, Inc.
+ * Copyright 2015 Facebook, Inc.
  *
  * Licensed under the Apache License, Version 2.0 (the "License");
  * you may not use this file except in compliance with the License.
@@ -27,15 +27,18 @@ namespace folly {
 // with --enable-stats.
 bool usingJEMallocSlow() {
   // Some platforms (*cough* OSX *cough*) require weak symbol checks to be
-  // in the form if (mallctl != NULL). Not if (mallctl) or if (!mallctl) (!!).
-  // http://goo.gl/xpmctm
-  if (allocm == nullptr || rallocm == nullptr || mallctl == nullptr) {
+  // in the form if (mallctl != nullptr). Not if (mallctl) or if (!mallctl)
+  // (!!). http://goo.gl/xpmctm
+  if (mallocx == nullptr || rallocx == nullptr || xallocx == nullptr
+      || sallocx == nullptr || dallocx == nullptr || nallocx == nullptr
+      || mallctl == nullptr || mallctlnametomib == nullptr
+      || mallctlbymib == nullptr) {
     return false;
   }
 
   // "volatile" because gcc optimizes out the reads from *counter, because
   // it "knows" malloc doesn't modify global state...
-  volatile uint64_t* counter;
+  /* nolint */ volatile uint64_t* counter;
   size_t counterLen = sizeof(uint64_t*);
 
   if (mallctl("thread.allocatedp", static_cast<void*>(&counter), &counterLen,
@@ -60,4 +63,3 @@ bool usingJEMallocSlow() {
 }
 
 }  // namespaces
-