optimize uadd(x, cst) into a comparison when the normal
[oota-llvm.git] / test / Transforms / InstCombine / intrinsics.ll
1 ; RUN: opt %s -instcombine -S | FileCheck %s
2
3 %overflow.result = type {i8, i1}
4
5 declare %overflow.result @llvm.uadd.with.overflow.i8(i8, i8)
6 declare %overflow.result @llvm.umul.with.overflow.i8(i8, i8)
7 declare double @llvm.powi.f64(double, i32) nounwind readonly
8 declare i32 @llvm.cttz.i32(i32) nounwind readnone
9 declare i32 @llvm.ctlz.i32(i32) nounwind readnone
10 declare i32 @llvm.ctpop.i32(i32) nounwind readnone
11 declare i8 @llvm.ctlz.i8(i8) nounwind readnone
12
13 define i8 @uaddtest1(i8 %A, i8 %B) {
14   %x = call %overflow.result @llvm.uadd.with.overflow.i8(i8 %A, i8 %B)
15   %y = extractvalue %overflow.result %x, 0
16   ret i8 %y
17 ; CHECK: @uaddtest1
18 ; CHECK-NEXT: %y = add i8 %A, %B
19 ; CHECK-NEXT: ret i8 %y
20 }
21
22 define i8 @uaddtest2(i8 %A, i8 %B, i1* %overflowPtr) {
23   %and.A = and i8 %A, 127
24   %and.B = and i8 %B, 127
25   %x = call %overflow.result @llvm.uadd.with.overflow.i8(i8 %and.A, i8 %and.B)
26   %y = extractvalue %overflow.result %x, 0
27   %z = extractvalue %overflow.result %x, 1
28   store i1 %z, i1* %overflowPtr
29   ret i8 %y
30 ; CHECK: @uaddtest2
31 ; CHECK-NEXT: %and.A = and i8 %A, 127
32 ; CHECK-NEXT: %and.B = and i8 %B, 127
33 ; CHECK-NEXT: %1 = add nuw i8 %and.A, %and.B
34 ; CHECK-NEXT: store i1 false, i1* %overflowPtr
35 ; CHECK-NEXT: ret i8 %1
36 }
37
38 define i8 @uaddtest3(i8 %A, i8 %B, i1* %overflowPtr) {
39   %or.A = or i8 %A, -128
40   %or.B = or i8 %B, -128
41   %x = call %overflow.result @llvm.uadd.with.overflow.i8(i8 %or.A, i8 %or.B)
42   %y = extractvalue %overflow.result %x, 0
43   %z = extractvalue %overflow.result %x, 1
44   store i1 %z, i1* %overflowPtr
45   ret i8 %y
46 ; CHECK: @uaddtest3
47 ; CHECK-NEXT: %or.A = or i8 %A, -128
48 ; CHECK-NEXT: %or.B = or i8 %B, -128
49 ; CHECK-NEXT: %1 = add i8 %or.A, %or.B
50 ; CHECK-NEXT: store i1 true, i1* %overflowPtr
51 ; CHECK-NEXT: ret i8 %1
52 }
53
54 define i8 @uaddtest4(i8 %A, i1* %overflowPtr) {
55   %x = call %overflow.result @llvm.uadd.with.overflow.i8(i8 undef, i8 %A)
56   %y = extractvalue %overflow.result %x, 0
57   %z = extractvalue %overflow.result %x, 1
58   store i1 %z, i1* %overflowPtr
59   ret i8 %y
60 ; CHECK: @uaddtest4
61 ; CHECK-NEXT: ret i8 undef
62 }
63
64 define i8 @uaddtest5(i8 %A, i1* %overflowPtr) {
65   %x = call %overflow.result @llvm.uadd.with.overflow.i8(i8 0, i8 %A)
66   %y = extractvalue %overflow.result %x, 0
67   %z = extractvalue %overflow.result %x, 1
68   store i1 %z, i1* %overflowPtr
69   ret i8 %y
70 ; CHECK: @uaddtest5
71 ; CHECK: ret i8 %A
72 }
73
74 define i1 @uaddtest6(i8 %A, i8 %B) {
75   %x = call %overflow.result @llvm.uadd.with.overflow.i8(i8 %A, i8 -4)
76   %z = extractvalue %overflow.result %x, 1
77   ret i1 %z
78 ; CHECK: @uaddtest6
79 ; CHECK-NEXT: %z = icmp ugt i8 %A, 3
80 ; CHECK-NEXT: ret i1 %z
81 }
82
83
84 define i8 @umultest1(i8 %A, i1* %overflowPtr) {
85   %x = call %overflow.result @llvm.umul.with.overflow.i8(i8 0, i8 %A)
86   %y = extractvalue %overflow.result %x, 0
87   %z = extractvalue %overflow.result %x, 1
88   store i1 %z, i1* %overflowPtr
89   ret i8 %y
90 ; CHECK: @umultest1
91 ; CHECK-NEXT: store i1 false, i1* %overflowPtr
92 ; CHECK-NEXT: ret i8 0
93 }
94
95 define i8 @umultest2(i8 %A, i1* %overflowPtr) {
96   %x = call %overflow.result @llvm.umul.with.overflow.i8(i8 1, i8 %A)
97   %y = extractvalue %overflow.result %x, 0
98   %z = extractvalue %overflow.result %x, 1
99   store i1 %z, i1* %overflowPtr
100   ret i8 %y
101 ; CHECK: @umultest2
102 ; CHECK-NEXT: store i1 false, i1* %overflowPtr
103 ; CHECK-NEXT: ret i8 %A
104 }
105
106 define void @powi(double %V, double *%P) {
107 entry:
108   %A = tail call double @llvm.powi.f64(double %V, i32 -1) nounwind
109   volatile store double %A, double* %P
110
111   %B = tail call double @llvm.powi.f64(double %V, i32 0) nounwind
112   volatile store double %B, double* %P
113
114   %C = tail call double @llvm.powi.f64(double %V, i32 1) nounwind
115   volatile store double %C, double* %P
116   ret void
117 ; CHECK: @powi
118 ; CHECK: %A = fdiv double 1.0{{.*}}, %V
119 ; CHECK: volatile store double %A, 
120 ; CHECK: volatile store double 1.0 
121 ; CHECK: volatile store double %V
122 }
123
124 define i32 @cttz(i32 %a) {
125 entry:
126   %or = or i32 %a, 8
127   %and = and i32 %or, -8
128   %count = tail call i32 @llvm.cttz.i32(i32 %and) nounwind readnone
129   ret i32 %count
130 ; CHECK: @cttz
131 ; CHECK-NEXT: entry:
132 ; CHECK-NEXT: ret i32 3
133 }
134
135 define i8 @ctlz(i8 %a) {
136 entry:
137   %or = or i8 %a, 32
138   %and = and i8 %or, 63
139   %count = tail call i8 @llvm.ctlz.i8(i8 %and) nounwind readnone
140   ret i8 %count
141 ; CHECK: @ctlz
142 ; CHECK-NEXT: entry:
143 ; CHECK-NEXT: ret i8 2
144 }
145
146 define void @cmp.simplify(i32 %a, i32 %b, i1* %c) {
147 entry:
148   %lz = tail call i32 @llvm.ctlz.i32(i32 %a) nounwind readnone
149   %lz.cmp = icmp eq i32 %lz, 32
150   volatile store i1 %lz.cmp, i1* %c
151   %tz = tail call i32 @llvm.cttz.i32(i32 %a) nounwind readnone
152   %tz.cmp = icmp ne i32 %tz, 32
153   volatile store i1 %tz.cmp, i1* %c
154   %pop = tail call i32 @llvm.ctpop.i32(i32 %b) nounwind readnone
155   %pop.cmp = icmp eq i32 %pop, 0
156   volatile store i1 %pop.cmp, i1* %c
157   ret void
158 ; CHECK: @cmp.simplify
159 ; CHECK-NEXT: entry:
160 ; CHECK-NEXT: %lz.cmp = icmp eq i32 %a, 0
161 ; CHECK-NEXT: volatile store i1 %lz.cmp, i1* %c
162 ; CHECK-NEXT: %tz.cmp = icmp ne i32 %a, 0
163 ; CHECK-NEXT: volatile store i1 %tz.cmp, i1* %c
164 ; CHECK-NEXT: %pop.cmp = icmp eq i32 %b, 0
165 ; CHECK-NEXT: volatile store i1 %pop.cmp, i1* %c
166 }
167
168
169 define i32 @cttz_simplify1(i32 %x) nounwind readnone ssp {
170   %tmp1 = tail call i32 @llvm.ctlz.i32(i32 %x)    ; <i32> [#uses=1]
171   %shr3 = lshr i32 %tmp1, 5                       ; <i32> [#uses=1]
172   ret i32 %shr3
173   
174 ; CHECK: @cttz_simplify1
175 ; CHECK: icmp eq i32 %x, 0
176 ; CHECK-NEXT: zext i1 
177 ; CHECK-NEXT: ret i32
178 }
179
180 declare i32 @llvm.ctlz.i32(i32) nounwind readnone
181