Merge tag 'perf-core-for-mingo' of git://git.kernel.org/pub/scm/linux/kernel/git...
authorIngo Molnar <mingo@kernel.org>
Tue, 21 Aug 2012 09:27:00 +0000 (11:27 +0200)
committerIngo Molnar <mingo@kernel.org>
Tue, 21 Aug 2012 09:27:00 +0000 (11:27 +0200)
Pull perf/core improvements and fixes from Arnaldo Carvalho de Melo:

 * Fix include order for bison/flex-generated C files, from Ben Hutchings

 * Build fixes and documentation corrections from David Ahern

 * Group parsing support, from Jiri Olsa

 * UI/gtk refactorings and improvements from Namhyung Kim

 * NULL deref fix for perf script, from Namhyung Kim

 * Assorted cleanups from Robert Richter

 * Let O= makes handle relative paths, from Steven Rostedt

 * perf script python fixes, from Feng Tang.

 * Improve 'perf lock' error message when the needed tracepoints
   are not present, from David Ahern.

 * Initial bash completion support, from Frederic Weisbecker

 * Allow building without libelf, from Namhyung Kim.

 * Support DWARF CFI based unwind to have callchains when %bp
   based unwinding is not possible, from Jiri Olsa.

 * Symbol resolution fixes, while fixing support PPC64 files with an .opt ELF
   section was the end goal, several fixes for code that handles all
   architectures and cleanups are included, from Cody Schafer.

 * Add a description for the JIT interface, from Andi Kleen.

 * Assorted fixes for Documentation and build in 32 bit, from Robert Richter

 * Add support for non-tracepoint events in perf script python, from Feng Tang

 * Cache the libtraceevent event_format associated to each evsel early, so that we
   avoid relookups, i.e. calling pevent_find_event repeatedly when processing
   tracepoint events.

   [ This is to reduce the surface contact with libtraceevents and make clear what
     is that the perf tools needs from that lib: so far parsing the common and per
     event fields. ]

Signed-off-by: Arnaldo Carvalho de Melo <acme@redhat.com>
Signed-off-by: Ingo Molnar <mingo@kernel.org>
1  2 
arch/x86/kernel/entry_64.S
kernel/trace/trace_event_perf.c
kernel/trace/trace_functions.c

Simple merge
Simple merge
index fdff65dff1bb5e2101970185e04072f34dc0cd57,a426f410c06053a5191f8f634138b07f049b6c38..483162a9f9080258fa08b76247e40103d8e5a6c5
@@@ -75,10 -75,16 +76,18 @@@ function_trace_call_preempt_only(unsign
        preempt_enable_notrace();
  }
  
+ /* Our two options */
+ enum {
+       TRACE_FUNC_OPT_STACK    = 0x1,
+       TRACE_FUNC_OPT_PSTORE   = 0x2,
+ };
+ static struct tracer_flags func_flags;
  static void
 -function_trace_call(unsigned long ip, unsigned long parent_ip)
 +function_trace_call(unsigned long ip, unsigned long parent_ip,
 +                  struct ftrace_ops *op, struct pt_regs *pt_regs)
 +
  {
        struct trace_array *tr = func_trace;
        struct trace_array_cpu *data;
@@@ -159,14 -170,9 +174,9 @@@ static struct ftrace_ops trace_ops __re
  static struct ftrace_ops trace_stack_ops __read_mostly =
  {
        .func = function_stack_trace_call,
 -      .flags = FTRACE_OPS_FL_GLOBAL,
 +      .flags = FTRACE_OPS_FL_GLOBAL | FTRACE_OPS_FL_RECURSION_SAFE,
  };
  
- /* Our two options */
- enum {
-       TRACE_FUNC_OPT_STACK = 0x1,
- };
  static struct tracer_opt func_opts[] = {
  #ifdef CONFIG_STACKTRACE
        { TRACER_OPT(func_stack_trace, TRACE_FUNC_OPT_STACK) },