ARM: perf: Preparatory work for Scorpion PMU support
authorStephen Boyd <sboyd@codeaurora.org>
Sat, 28 Feb 2015 00:11:33 +0000 (00:11 +0000)
committerWill Deacon <will.deacon@arm.com>
Tue, 17 Mar 2015 18:34:01 +0000 (18:34 +0000)
Do some things to make the Krait PMU support code generic enough
to be used by the Scorpion PMU support code.

 * Rename the venum register functions to be venum instead of krait
   specific because the same registers exist on Scorpion

 * Add some macros to decode our Krait specific event encoding that's
   the same on Scorpion (modulo an extra region).

 * Drop 'krait' from krait_clear_pmresrn_group() so it can be used
   by Scorpion code

Signed-off-by: Stephen Boyd <sboyd@codeaurora.org>
Signed-off-by: Will Deacon <will.deacon@arm.com>
arch/arm/kernel/perf_event_v7.c

index 8993770c47de7ebdb59e5151bf2c4bc7948e19fd..97a7eda8831a9d980d591b08a4f29c27cf4a10d3 100644 (file)
@@ -1103,6 +1103,12 @@ static int armv7_a17_pmu_init(struct arm_pmu *cpu_pmu)
 #define KRAIT_EVENT_MASK       (KRAIT_EVENT | VENUM_EVENT)
 #define PMRESRn_EN             BIT(31)
 
+#define EVENT_REGION(event)    (((event) >> 12) & 0xf)         /* R */
+#define EVENT_GROUP(event)     ((event) & 0xf)                 /* G */
+#define EVENT_CODE(event)      (((event) >> 4) & 0xff)         /* CC */
+#define EVENT_VENUM(event)     (!!(event & VENUM_EVENT))       /* N=2 */
+#define EVENT_CPU(event)       (!!(event & KRAIT_EVENT))       /* N=1 */
+
 static u32 krait_read_pmresrn(int n)
 {
        u32 val;
@@ -1141,19 +1147,19 @@ static void krait_write_pmresrn(int n, u32 val)
        }
 }
 
-static u32 krait_read_vpmresr0(void)
+static u32 venum_read_pmresr(void)
 {
        u32 val;
        asm volatile("mrc p10, 7, %0, c11, c0, 0" : "=r" (val));
        return val;
 }
 
-static void krait_write_vpmresr0(u32 val)
+static void venum_write_pmresr(u32 val)
 {
        asm volatile("mcr p10, 7, %0, c11, c0, 0" : : "r" (val));
 }
 
-static void krait_pre_vpmresr0(u32 *venum_orig_val, u32 *fp_orig_val)
+static void venum_pre_pmresr(u32 *venum_orig_val, u32 *fp_orig_val)
 {
        u32 venum_new_val;
        u32 fp_new_val;
@@ -1170,7 +1176,7 @@ static void krait_pre_vpmresr0(u32 *venum_orig_val, u32 *fp_orig_val)
        fmxr(FPEXC, fp_new_val);
 }
 
-static void krait_post_vpmresr0(u32 venum_orig_val, u32 fp_orig_val)
+static void venum_post_pmresr(u32 venum_orig_val, u32 fp_orig_val)
 {
        BUG_ON(preemptible());
        /* Restore FPEXC */
@@ -1193,16 +1199,11 @@ static void krait_evt_setup(int idx, u32 config_base)
        u32 val;
        u32 mask;
        u32 vval, fval;
-       unsigned int region;
-       unsigned int group;
-       unsigned int code;
+       unsigned int region = EVENT_REGION(config_base);
+       unsigned int group = EVENT_GROUP(config_base);
+       unsigned int code = EVENT_CODE(config_base);
        unsigned int group_shift;
-       bool venum_event;
-
-       venum_event = !!(config_base & VENUM_EVENT);
-       region = (config_base >> 12) & 0xf;
-       code   = (config_base >> 4) & 0xff;
-       group  = (config_base >> 0)  & 0xf;
+       bool venum_event = EVENT_VENUM(config_base);
 
        group_shift = group * 8;
        mask = 0xff << group_shift;
@@ -1220,13 +1221,13 @@ static void krait_evt_setup(int idx, u32 config_base)
        asm volatile("mcr p15, 0, %0, c9, c15, 0" : : "r" (0));
 
        if (venum_event) {
-               krait_pre_vpmresr0(&vval, &fval);
-               val = krait_read_vpmresr0();
+               venum_pre_pmresr(&vval, &fval);
+               val = venum_read_pmresr();
                val &= ~mask;
                val |= code << group_shift;
                val |= PMRESRn_EN;
-               krait_write_vpmresr0(val);
-               krait_post_vpmresr0(vval, fval);
+               venum_write_pmresr(val);
+               venum_post_pmresr(vval, fval);
        } else {
                val = krait_read_pmresrn(region);
                val &= ~mask;
@@ -1236,7 +1237,7 @@ static void krait_evt_setup(int idx, u32 config_base)
        }
 }
 
-static u32 krait_clear_pmresrn_group(u32 val, int group)
+static u32 clear_pmresrn_group(u32 val, int group)
 {
        u32 mask;
        int group_shift;
@@ -1256,23 +1257,19 @@ static void krait_clearpmu(u32 config_base)
 {
        u32 val;
        u32 vval, fval;
-       unsigned int region;
-       unsigned int group;
-       bool venum_event;
-
-       venum_event = !!(config_base & VENUM_EVENT);
-       region = (config_base >> 12) & 0xf;
-       group  = (config_base >> 0)  & 0xf;
+       unsigned int region = EVENT_REGION(config_base);
+       unsigned int group = EVENT_GROUP(config_base);
+       bool venum_event = EVENT_VENUM(config_base);
 
        if (venum_event) {
-               krait_pre_vpmresr0(&vval, &fval);
-               val = krait_read_vpmresr0();
-               val = krait_clear_pmresrn_group(val, group);
-               krait_write_vpmresr0(val);
-               krait_post_vpmresr0(vval, fval);
+               venum_pre_pmresr(&vval, &fval);
+               val = venum_read_pmresr();
+               val = clear_pmresrn_group(val, group);
+               venum_write_pmresr(val);
+               venum_post_pmresr(vval, fval);
        } else {
                val = krait_read_pmresrn(region);
-               val = krait_clear_pmresrn_group(val, group);
+               val = clear_pmresrn_group(val, group);
                krait_write_pmresrn(region, val);
        }
 }
@@ -1350,9 +1347,9 @@ static void krait_pmu_reset(void *info)
        krait_write_pmresrn(1, 0);
        krait_write_pmresrn(2, 0);
 
-       krait_pre_vpmresr0(&vval, &fval);
-       krait_write_vpmresr0(0);
-       krait_post_vpmresr0(vval, fval);
+       venum_pre_pmresr(&vval, &fval);
+       venum_write_pmresr(0);
+       venum_post_pmresr(vval, fval);
 }
 
 static int krait_event_to_bit(struct perf_event *event, unsigned int region,
@@ -1386,26 +1383,18 @@ static int krait_pmu_get_event_idx(struct pmu_hw_events *cpuc,
 {
        int idx;
        int bit = -1;
-       unsigned int prefix;
-       unsigned int region;
-       unsigned int code;
-       unsigned int group;
-       bool krait_event;
        struct hw_perf_event *hwc = &event->hw;
+       unsigned int region = EVENT_REGION(hwc->config_base);
+       unsigned int code = EVENT_CODE(hwc->config_base);
+       unsigned int group = EVENT_GROUP(hwc->config_base);
+       bool venum_event = EVENT_VENUM(hwc->config_base);
+       bool krait_event = EVENT_CPU(hwc->config_base);
 
-       region = (hwc->config_base >> 12) & 0xf;
-       code   = (hwc->config_base >> 4) & 0xff;
-       group  = (hwc->config_base >> 0) & 0xf;
-       krait_event = !!(hwc->config_base & KRAIT_EVENT_MASK);
-
-       if (krait_event) {
+       if (venum_event || krait_event) {
                /* Ignore invalid events */
                if (group > 3 || region > 2)
                        return -EINVAL;
-               prefix = hwc->config_base & KRAIT_EVENT_MASK;
-               if (prefix != KRAIT_EVENT && prefix != VENUM_EVENT)
-                       return -EINVAL;
-               if (prefix == VENUM_EVENT && (code & 0xe0))
+               if (venum_event && (code & 0xe0))
                        return -EINVAL;
 
                bit = krait_event_to_bit(event, region, group);
@@ -1425,15 +1414,12 @@ static void krait_pmu_clear_event_idx(struct pmu_hw_events *cpuc,
 {
        int bit;
        struct hw_perf_event *hwc = &event->hw;
-       unsigned int region;
-       unsigned int group;
-       bool krait_event;
-
-       region = (hwc->config_base >> 12) & 0xf;
-       group  = (hwc->config_base >> 0) & 0xf;
-       krait_event = !!(hwc->config_base & KRAIT_EVENT_MASK);
+       unsigned int region = EVENT_REGION(hwc->config_base);
+       unsigned int group = EVENT_GROUP(hwc->config_base);
+       bool venum_event = EVENT_VENUM(hwc->config_base);
+       bool krait_event = EVENT_CPU(hwc->config_base);
 
-       if (krait_event) {
+       if (venum_event || krait_event) {
                bit = krait_event_to_bit(event, region, group);
                clear_bit(bit, cpuc->used_mask);
        }