Add CPU model to BBVectorize cost-model tests.
[oota-llvm.git] / test / Transforms / BBVectorize / loop1.ll
1 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
2 target triple = "x86_64-unknown-linux-gnu"
3 ; RUN: opt < %s -bb-vectorize -bb-vectorize-req-chain-depth=3 -instcombine -gvn -S | FileCheck %s
4 ; RUN: opt < %s -mtriple=x86_64-unknown-linux-gnu -mcpu=corei7 -bb-vectorize -bb-vectorize-req-chain-depth=3 -instcombine -gvn -S | FileCheck %s
5 ; RUN: opt < %s -basicaa -loop-unroll -unroll-threshold=45 -unroll-allow-partial -bb-vectorize -bb-vectorize-req-chain-depth=3 -instcombine -gvn -S | FileCheck %s -check-prefix=CHECK-UNRL
6 ; RUN: opt < %s -mtriple=x86_64-unknown-linux-gnu -mcpu=corei7 -basicaa -loop-unroll -unroll-threshold=45 -unroll-allow-partial -bb-vectorize -bb-vectorize-req-chain-depth=3 -instcombine -gvn -S | FileCheck %s -check-prefix=CHECK-UNRL
7 ; The second check covers the use of alias analysis (with loop unrolling).
8 ; Both checks are run with and without target information.
9
10 define void @test1(double* noalias %out, double* noalias %in1, double* noalias %in2) nounwind uwtable {
11 entry:
12   br label %for.body
13 ; CHECK: @test1
14 ; CHECK-UNRL: @test1
15
16 for.body:                                         ; preds = %for.body, %entry
17   %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ]
18   %arrayidx = getelementptr inbounds double* %in1, i64 %indvars.iv
19   %0 = load double* %arrayidx, align 8
20   %arrayidx2 = getelementptr inbounds double* %in2, i64 %indvars.iv
21   %1 = load double* %arrayidx2, align 8
22   %mul = fmul double %0, %0
23   %mul3 = fmul double %0, %1
24   %add = fadd double %mul, %mul3
25   %add4 = fadd double %1, %1
26   %add5 = fadd double %add4, %0
27   %mul6 = fmul double %0, %add5
28   %add7 = fadd double %add, %mul6
29   %mul8 = fmul double %1, %1
30   %add9 = fadd double %0, %0
31   %add10 = fadd double %add9, %0
32   %mul11 = fmul double %mul8, %add10
33   %add12 = fadd double %add7, %mul11
34   %arrayidx14 = getelementptr inbounds double* %out, i64 %indvars.iv
35   store double %add12, double* %arrayidx14, align 8
36   %indvars.iv.next = add i64 %indvars.iv, 1
37   %lftr.wideiv = trunc i64 %indvars.iv.next to i32
38   %exitcond = icmp eq i32 %lftr.wideiv, 10
39   br i1 %exitcond, label %for.end, label %for.body
40 ; CHECK: %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ]
41 ; CHECK: %arrayidx = getelementptr inbounds double* %in1, i64 %indvars.iv
42 ; CHECK: %0 = load double* %arrayidx, align 8
43 ; CHECK: %arrayidx2 = getelementptr inbounds double* %in2, i64 %indvars.iv
44 ; CHECK: %1 = load double* %arrayidx2, align 8
45 ; CHECK: %mul = fmul double %0, %0
46 ; CHECK: %mul3 = fmul double %0, %1
47 ; CHECK: %add = fadd double %mul, %mul3
48 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0
49 ; CHECK: %mul8 = fmul double %1, %1
50 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1
51 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2
52 ; CHECK: %add5.v.i1.1 = insertelement <2 x double> undef, double %0, i32 0
53 ; CHECK: %add5.v.i1.2 = insertelement <2 x double> %add5.v.i1.1, double %0, i32 1
54 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2
55 ; CHECK: %mul6.v.i0.2 = insertelement <2 x double> %add5.v.i1.1, double %mul8, i32 1
56 ; CHECK: %mul6 = fmul <2 x double> %mul6.v.i0.2, %add5
57 ; CHECK: %mul6.v.r1 = extractelement <2 x double> %mul6, i32 0
58 ; CHECK: %mul6.v.r2 = extractelement <2 x double> %mul6, i32 1
59 ; CHECK: %add7 = fadd double %add, %mul6.v.r1
60 ; CHECK: %add12 = fadd double %add7, %mul6.v.r2
61 ; CHECK: %arrayidx14 = getelementptr inbounds double* %out, i64 %indvars.iv
62 ; CHECK: store double %add12, double* %arrayidx14, align 8
63 ; CHECK: %indvars.iv.next = add i64 %indvars.iv, 1
64 ; CHECK: %lftr.wideiv = trunc i64 %indvars.iv.next to i32
65 ; CHECK: %exitcond = icmp eq i32 %lftr.wideiv, 10
66 ; CHECK: br i1 %exitcond, label %for.end, label %for.body
67 ; CHECK-UNRL: %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next.1, %for.body ]
68 ; CHECK-UNRL: %arrayidx = getelementptr inbounds double* %in1, i64 %indvars.iv
69 ; CHECK-UNRL: %0 = bitcast double* %arrayidx to <2 x double>*
70 ; CHECK-UNRL: %arrayidx2 = getelementptr inbounds double* %in2, i64 %indvars.iv
71 ; CHECK-UNRL: %1 = bitcast double* %arrayidx2 to <2 x double>*
72 ; CHECK-UNRL: %arrayidx14 = getelementptr inbounds double* %out, i64 %indvars.iv
73 ; CHECK-UNRL: %2 = load <2 x double>* %0, align 8
74 ; CHECK-UNRL: %3 = load <2 x double>* %1, align 8
75 ; CHECK-UNRL: %mul = fmul <2 x double> %2, %2
76 ; CHECK-UNRL: %mul3 = fmul <2 x double> %2, %3
77 ; CHECK-UNRL: %add = fadd <2 x double> %mul, %mul3
78 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3
79 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
80 ; CHECK-UNRL: %mul6 = fmul <2 x double> %2, %add5
81 ; CHECK-UNRL: %add7 = fadd <2 x double> %add, %mul6
82 ; CHECK-UNRL: %mul8 = fmul <2 x double> %3, %3
83 ; CHECK-UNRL: %add9 = fadd <2 x double> %2, %2
84 ; CHECK-UNRL: %add10 = fadd <2 x double> %add9, %2
85 ; CHECK-UNRL: %mul11 = fmul <2 x double> %mul8, %add10
86 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11
87 ; CHECK-UNRL: %4 = bitcast double* %arrayidx14 to <2 x double>*
88 ; CHECK-UNRL: store <2 x double> %add12, <2 x double>* %4, align 8
89 ; CHECK-UNRL: %indvars.iv.next.1 = add i64 %indvars.iv, 2
90 ; CHECK-UNRL: %lftr.wideiv.1 = trunc i64 %indvars.iv.next.1 to i32
91 ; CHECK-UNRL: %exitcond.1 = icmp eq i32 %lftr.wideiv.1, 10
92 ; CHECK-UNRL: br i1 %exitcond.1, label %for.end, label %for.body
93
94 for.end:                                          ; preds = %for.body
95   ret void
96 }