Revert "Change memcpy/memset/memmove to have dest and source alignments."
[oota-llvm.git] / test / CodeGen / SystemZ / int-add-12.ll
1 ; Test 64-bit additions of constants to memory.
2 ;
3 ; RUN: llc < %s -mtriple=s390x-linux-gnu | FileCheck %s
4
5 ; Check additions of 1.
6 define void @f1(i64 *%ptr) {
7 ; CHECK-LABEL: f1:
8 ; CHECK: agsi 0(%r2), 1
9 ; CHECK: br %r14
10   %val = load i64 , i64 *%ptr
11   %add = add i64 %val, 127
12   store i64 %add, i64 *%ptr
13   ret void
14 }
15
16 ; Check the high end of the constant range.
17 define void @f2(i64 *%ptr) {
18 ; CHECK-LABEL: f2:
19 ; CHECK: agsi 0(%r2), 127
20 ; CHECK: br %r14
21   %val = load i64 , i64 *%ptr
22   %add = add i64 %val, 127
23   store i64 %add, i64 *%ptr
24   ret void
25 }
26
27 ; Check the next constant up, which must use an addition and a store.
28 ; Both LG/AGHI and LGHI/AG would be OK.
29 define void @f3(i64 *%ptr) {
30 ; CHECK-LABEL: f3:
31 ; CHECK-NOT: agsi
32 ; CHECK: stg %r0, 0(%r2)
33 ; CHECK: br %r14
34   %val = load i64 , i64 *%ptr
35   %add = add i64 %val, 128
36   store i64 %add, i64 *%ptr
37   ret void
38 }
39
40 ; Check the low end of the constant range.
41 define void @f4(i64 *%ptr) {
42 ; CHECK-LABEL: f4:
43 ; CHECK: agsi 0(%r2), -128
44 ; CHECK: br %r14
45   %val = load i64 , i64 *%ptr
46   %add = add i64 %val, -128
47   store i64 %add, i64 *%ptr
48   ret void
49 }
50
51 ; Check the next value down, with the same comment as f3.
52 define void @f5(i64 *%ptr) {
53 ; CHECK-LABEL: f5:
54 ; CHECK-NOT: agsi
55 ; CHECK: stg %r0, 0(%r2)
56 ; CHECK: br %r14
57   %val = load i64 , i64 *%ptr
58   %add = add i64 %val, -129
59   store i64 %add, i64 *%ptr
60   ret void
61 }
62
63 ; Check the high end of the aligned AGSI range.
64 define void @f6(i64 *%base) {
65 ; CHECK-LABEL: f6:
66 ; CHECK: agsi 524280(%r2), 1
67 ; CHECK: br %r14
68   %ptr = getelementptr i64, i64 *%base, i64 65535
69   %val = load i64 , i64 *%ptr
70   %add = add i64 %val, 1
71   store i64 %add, i64 *%ptr
72   ret void
73 }
74
75 ; Check the next doubleword up, which must use separate address logic.
76 ; Other sequences besides this one would be OK.
77 define void @f7(i64 *%base) {
78 ; CHECK-LABEL: f7:
79 ; CHECK: agfi %r2, 524288
80 ; CHECK: agsi 0(%r2), 1
81 ; CHECK: br %r14
82   %ptr = getelementptr i64, i64 *%base, i64 65536
83   %val = load i64 , i64 *%ptr
84   %add = add i64 %val, 1
85   store i64 %add, i64 *%ptr
86   ret void
87 }
88
89 ; Check the low end of the AGSI range.
90 define void @f8(i64 *%base) {
91 ; CHECK-LABEL: f8:
92 ; CHECK: agsi -524288(%r2), 1
93 ; CHECK: br %r14
94   %ptr = getelementptr i64, i64 *%base, i64 -65536
95   %val = load i64 , i64 *%ptr
96   %add = add i64 %val, 1
97   store i64 %add, i64 *%ptr
98   ret void
99 }
100
101 ; Check the next doubleword down, which must use separate address logic.
102 ; Other sequences besides this one would be OK.
103 define void @f9(i64 *%base) {
104 ; CHECK-LABEL: f9:
105 ; CHECK: agfi %r2, -524296
106 ; CHECK: agsi 0(%r2), 1
107 ; CHECK: br %r14
108   %ptr = getelementptr i64, i64 *%base, i64 -65537
109   %val = load i64 , i64 *%ptr
110   %add = add i64 %val, 1
111   store i64 %add, i64 *%ptr
112   ret void
113 }
114
115 ; Check that AGSI does not allow indices.
116 define void @f10(i64 %base, i64 %index) {
117 ; CHECK-LABEL: f10:
118 ; CHECK: agr %r2, %r3
119 ; CHECK: agsi 8(%r2), 1
120 ; CHECK: br %r14
121   %add1 = add i64 %base, %index
122   %add2 = add i64 %add1, 8
123   %ptr = inttoptr i64 %add2 to i64 *
124   %val = load i64 , i64 *%ptr
125   %add = add i64 %val, 1
126   store i64 %add, i64 *%ptr
127   ret void
128 }
129
130 ; Check that adding 127 to a spilled value can use AGSI.
131 define void @f11(i64 *%ptr, i32 %sel) {
132 ; CHECK-LABEL: f11:
133 ; CHECK: agsi {{[0-9]+}}(%r15), 127
134 ; CHECK: br %r14
135 entry:
136   %val0 = load volatile i64 , i64 *%ptr
137   %val1 = load volatile i64 , i64 *%ptr
138   %val2 = load volatile i64 , i64 *%ptr
139   %val3 = load volatile i64 , i64 *%ptr
140   %val4 = load volatile i64 , i64 *%ptr
141   %val5 = load volatile i64 , i64 *%ptr
142   %val6 = load volatile i64 , i64 *%ptr
143   %val7 = load volatile i64 , i64 *%ptr
144   %val8 = load volatile i64 , i64 *%ptr
145   %val9 = load volatile i64 , i64 *%ptr
146   %val10 = load volatile i64 , i64 *%ptr
147   %val11 = load volatile i64 , i64 *%ptr
148   %val12 = load volatile i64 , i64 *%ptr
149   %val13 = load volatile i64 , i64 *%ptr
150   %val14 = load volatile i64 , i64 *%ptr
151   %val15 = load volatile i64 , i64 *%ptr
152
153   %test = icmp ne i32 %sel, 0
154   br i1 %test, label %add, label %store
155
156 add:
157   %add0 = add i64 %val0, 127
158   %add1 = add i64 %val1, 127
159   %add2 = add i64 %val2, 127
160   %add3 = add i64 %val3, 127
161   %add4 = add i64 %val4, 127
162   %add5 = add i64 %val5, 127
163   %add6 = add i64 %val6, 127
164   %add7 = add i64 %val7, 127
165   %add8 = add i64 %val8, 127
166   %add9 = add i64 %val9, 127
167   %add10 = add i64 %val10, 127
168   %add11 = add i64 %val11, 127
169   %add12 = add i64 %val12, 127
170   %add13 = add i64 %val13, 127
171   %add14 = add i64 %val14, 127
172   %add15 = add i64 %val15, 127
173   br label %store
174
175 store:
176   %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
177   %new1 = phi i64 [ %val1, %entry ], [ %add1, %add ]
178   %new2 = phi i64 [ %val2, %entry ], [ %add2, %add ]
179   %new3 = phi i64 [ %val3, %entry ], [ %add3, %add ]
180   %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
181   %new5 = phi i64 [ %val5, %entry ], [ %add5, %add ]
182   %new6 = phi i64 [ %val6, %entry ], [ %add6, %add ]
183   %new7 = phi i64 [ %val7, %entry ], [ %add7, %add ]
184   %new8 = phi i64 [ %val8, %entry ], [ %add8, %add ]
185   %new9 = phi i64 [ %val9, %entry ], [ %add9, %add ]
186   %new10 = phi i64 [ %val10, %entry ], [ %add10, %add ]
187   %new11 = phi i64 [ %val11, %entry ], [ %add11, %add ]
188   %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
189   %new13 = phi i64 [ %val13, %entry ], [ %add13, %add ]
190   %new14 = phi i64 [ %val14, %entry ], [ %add14, %add ]
191   %new15 = phi i64 [ %val15, %entry ], [ %add15, %add ]
192
193   store volatile i64 %new0, i64 *%ptr
194   store volatile i64 %new1, i64 *%ptr
195   store volatile i64 %new2, i64 *%ptr
196   store volatile i64 %new3, i64 *%ptr
197   store volatile i64 %new4, i64 *%ptr
198   store volatile i64 %new5, i64 *%ptr
199   store volatile i64 %new6, i64 *%ptr
200   store volatile i64 %new7, i64 *%ptr
201   store volatile i64 %new8, i64 *%ptr
202   store volatile i64 %new9, i64 *%ptr
203   store volatile i64 %new10, i64 *%ptr
204   store volatile i64 %new11, i64 *%ptr
205   store volatile i64 %new12, i64 *%ptr
206   store volatile i64 %new13, i64 *%ptr
207   store volatile i64 %new14, i64 *%ptr
208   store volatile i64 %new15, i64 *%ptr
209
210   ret void
211 }
212
213 ; Check that adding -128 to a spilled value can use AGSI.
214 define void @f12(i64 *%ptr, i32 %sel) {
215 ; CHECK-LABEL: f12:
216 ; CHECK: agsi {{[0-9]+}}(%r15), -128
217 ; CHECK: br %r14
218 entry:
219   %val0 = load volatile i64 , i64 *%ptr
220   %val1 = load volatile i64 , i64 *%ptr
221   %val2 = load volatile i64 , i64 *%ptr
222   %val3 = load volatile i64 , i64 *%ptr
223   %val4 = load volatile i64 , i64 *%ptr
224   %val5 = load volatile i64 , i64 *%ptr
225   %val6 = load volatile i64 , i64 *%ptr
226   %val7 = load volatile i64 , i64 *%ptr
227   %val8 = load volatile i64 , i64 *%ptr
228   %val9 = load volatile i64 , i64 *%ptr
229   %val10 = load volatile i64 , i64 *%ptr
230   %val11 = load volatile i64 , i64 *%ptr
231   %val12 = load volatile i64 , i64 *%ptr
232   %val13 = load volatile i64 , i64 *%ptr
233   %val14 = load volatile i64 , i64 *%ptr
234   %val15 = load volatile i64 , i64 *%ptr
235
236   %test = icmp ne i32 %sel, 0
237   br i1 %test, label %add, label %store
238
239 add:
240   %add0 = add i64 %val0, -128
241   %add1 = add i64 %val1, -128
242   %add2 = add i64 %val2, -128
243   %add3 = add i64 %val3, -128
244   %add4 = add i64 %val4, -128
245   %add5 = add i64 %val5, -128
246   %add6 = add i64 %val6, -128
247   %add7 = add i64 %val7, -128
248   %add8 = add i64 %val8, -128
249   %add9 = add i64 %val9, -128
250   %add10 = add i64 %val10, -128
251   %add11 = add i64 %val11, -128
252   %add12 = add i64 %val12, -128
253   %add13 = add i64 %val13, -128
254   %add14 = add i64 %val14, -128
255   %add15 = add i64 %val15, -128
256   br label %store
257
258 store:
259   %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
260   %new1 = phi i64 [ %val1, %entry ], [ %add1, %add ]
261   %new2 = phi i64 [ %val2, %entry ], [ %add2, %add ]
262   %new3 = phi i64 [ %val3, %entry ], [ %add3, %add ]
263   %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
264   %new5 = phi i64 [ %val5, %entry ], [ %add5, %add ]
265   %new6 = phi i64 [ %val6, %entry ], [ %add6, %add ]
266   %new7 = phi i64 [ %val7, %entry ], [ %add7, %add ]
267   %new8 = phi i64 [ %val8, %entry ], [ %add8, %add ]
268   %new9 = phi i64 [ %val9, %entry ], [ %add9, %add ]
269   %new10 = phi i64 [ %val10, %entry ], [ %add10, %add ]
270   %new11 = phi i64 [ %val11, %entry ], [ %add11, %add ]
271   %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
272   %new13 = phi i64 [ %val13, %entry ], [ %add13, %add ]
273   %new14 = phi i64 [ %val14, %entry ], [ %add14, %add ]
274   %new15 = phi i64 [ %val15, %entry ], [ %add15, %add ]
275
276   store volatile i64 %new0, i64 *%ptr
277   store volatile i64 %new1, i64 *%ptr
278   store volatile i64 %new2, i64 *%ptr
279   store volatile i64 %new3, i64 *%ptr
280   store volatile i64 %new4, i64 *%ptr
281   store volatile i64 %new5, i64 *%ptr
282   store volatile i64 %new6, i64 *%ptr
283   store volatile i64 %new7, i64 *%ptr
284   store volatile i64 %new8, i64 *%ptr
285   store volatile i64 %new9, i64 *%ptr
286   store volatile i64 %new10, i64 *%ptr
287   store volatile i64 %new11, i64 *%ptr
288   store volatile i64 %new12, i64 *%ptr
289   store volatile i64 %new13, i64 *%ptr
290   store volatile i64 %new14, i64 *%ptr
291   store volatile i64 %new15, i64 *%ptr
292
293   ret void
294 }