IR: add "cmpxchg weak" variant to support permitted failure.
[oota-llvm.git] / test / Bitcode / memInstructions.3.2.ll
1 ; RUN:  llvm-dis < %s.bc| FileCheck %s\r
2 \r
3 ; memOperations.3.2.ll.bc was generated by passing this file to llvm-as-3.2.\r
4 ; The test checks that LLVM does not misread memory related instructions of\r
5 ; older bitcode files.\r
6 \r
7 define void @alloca(){\r
8 entry:\r
9 ; CHECK: %res1 = alloca i8\r
10   %res1 = alloca i8\r
11   \r
12 ; CHECK-NEXT: %res2 = alloca i8, i32 2\r
13   %res2 = alloca i8, i32 2\r
14 \r
15 ; CHECK-NEXT: %res3 = alloca i8, i32 2, align 4\r
16   %res3 = alloca i8, i32 2, align 4\r
17   \r
18 ; CHECK-NEXT: %res4 = alloca i8, align 4\r
19   %res4 = alloca i8, align 4\r
20   \r
21   ret void\r
22 }\r
23 \r
24 define void @load(){\r
25 entry:\r
26   %ptr1 = alloca i8\r
27   store i8 2, i8* %ptr1\r
28   \r
29 ; CHECK: %res1 = load i8* %ptr1\r
30   %res1 = load i8* %ptr1\r
31   \r
32 ; CHECK-NEXT: %res2 = load volatile i8* %ptr1\r
33   %res2 = load volatile i8* %ptr1\r
34   \r
35 ; CHECK-NEXT: %res3 = load i8* %ptr1, align 1\r
36   %res3 = load i8* %ptr1, align 1\r
37   \r
38 ; CHECK-NEXT: %res4 = load volatile i8* %ptr1, align 1\r
39   %res4 = load volatile i8* %ptr1, align 1\r
40   \r
41 ; CHECK-NEXT: %res5 = load i8* %ptr1, !nontemporal !0\r
42   %res5 = load i8* %ptr1, !nontemporal !0\r
43   \r
44 ; CHECK-NEXT: %res6 = load volatile i8* %ptr1, !nontemporal !0\r
45   %res6 = load volatile i8* %ptr1, !nontemporal !0\r
46   \r
47 ; CHECK-NEXT: %res7 = load i8* %ptr1, align 1, !nontemporal !0\r
48   %res7 = load i8* %ptr1, align 1, !nontemporal !0\r
49   \r
50 ; CHECK-NEXT: %res8 = load volatile i8* %ptr1, align 1, !nontemporal !0\r
51   %res8 = load volatile i8* %ptr1, align 1, !nontemporal !0\r
52   \r
53 ; CHECK-NEXT: %res9 = load i8* %ptr1, !invariant.load !1\r
54   %res9 = load i8* %ptr1, !invariant.load !1\r
55   \r
56 ; CHECK-NEXT: %res10 = load volatile i8* %ptr1, !invariant.load !1\r
57   %res10 = load volatile i8* %ptr1, !invariant.load !1\r
58   \r
59 ; CHECK-NEXT: %res11 = load i8* %ptr1, align 1, !invariant.load !1\r
60   %res11 = load i8* %ptr1, align 1, !invariant.load !1\r
61   \r
62 ; CHECK-NEXT: %res12 = load volatile i8* %ptr1, align 1, !invariant.load !1\r
63   %res12 = load volatile i8* %ptr1, align 1, !invariant.load !1\r
64   \r
65 ; CHECK-NEXT: %res13 = load i8* %ptr1, {{[(!nontemporal !0, !invariant.load !1) | (!invariant.load !1, !nontemporal !0)]}}\r
66   %res13 = load i8* %ptr1, !nontemporal !0, !invariant.load !1\r
67   \r
68 ; CHECK-NEXT: %res14 = load volatile i8* %ptr1, {{[(!nontemporal !0, !invariant.load !1) | (!invariant.load !1, !nontemporal !0)]}}\r
69   %res14 = load volatile i8* %ptr1, !nontemporal !0, !invariant.load !1\r
70   \r
71 ; CHECK-NEXT: %res15 = load i8* %ptr1, align 1, {{[(!nontemporal !0, !invariant.load !1) | (!invariant.load !1, !nontemporal !0)]}}\r
72   %res15 = load i8* %ptr1, align 1, !nontemporal !0, !invariant.load !1\r
73   \r
74 ; CHECK-NEXT: %res16 = load volatile i8* %ptr1, align 1, {{[(!nontemporal !0, !invariant.load !1) | (!invariant.load !1, !nontemporal !0)]}}\r
75   %res16 = load volatile i8* %ptr1, align 1, !nontemporal !0, !invariant.load !1\r
76   \r
77   ret void\r
78 }\r
79 \r
80 define void @loadAtomic(){\r
81 entry:\r
82   %ptr1 = alloca i8\r
83   store i8 2, i8* %ptr1\r
84   \r
85 ; CHECK: %res1 = load atomic i8* %ptr1 unordered, align 1\r
86   %res1 = load atomic i8* %ptr1 unordered, align 1\r
87   \r
88 ; CHECK-NEXT: %res2 = load atomic i8* %ptr1 monotonic, align 1\r
89   %res2 = load atomic i8* %ptr1 monotonic, align 1\r
90   \r
91 ; CHECK-NEXT: %res3 = load atomic i8* %ptr1 acquire, align 1\r
92   %res3 = load atomic i8* %ptr1 acquire, align 1\r
93   \r
94 ; CHECK-NEXT: %res4 = load atomic i8* %ptr1 seq_cst, align 1\r
95   %res4 = load atomic i8* %ptr1 seq_cst, align 1\r
96   \r
97 ; CHECK-NEXT: %res5 = load atomic volatile i8* %ptr1 unordered, align 1\r
98   %res5 = load atomic volatile i8* %ptr1 unordered, align 1\r
99   \r
100 ; CHECK-NEXT: %res6 = load atomic volatile i8* %ptr1 monotonic, align 1\r
101   %res6 = load atomic volatile i8* %ptr1 monotonic, align 1\r
102   \r
103 ; CHECK-NEXT: %res7 = load atomic volatile i8* %ptr1 acquire, align 1\r
104   %res7 = load atomic volatile i8* %ptr1 acquire, align 1\r
105   \r
106 ; CHECK-NEXT: %res8 = load atomic volatile i8* %ptr1 seq_cst, align 1\r
107   %res8 = load atomic volatile i8* %ptr1 seq_cst, align 1\r
108   \r
109 ; CHECK-NEXT: %res9 = load atomic i8* %ptr1 singlethread unordered, align 1\r
110   %res9 = load atomic i8* %ptr1 singlethread unordered, align 1\r
111   \r
112 ; CHECK-NEXT: %res10 = load atomic i8* %ptr1 singlethread monotonic, align 1\r
113   %res10 = load atomic i8* %ptr1 singlethread monotonic, align 1\r
114   \r
115 ; CHECK-NEXT: %res11 = load atomic i8* %ptr1 singlethread acquire, align 1\r
116   %res11 = load atomic i8* %ptr1 singlethread acquire, align 1\r
117   \r
118 ; CHECK-NEXT: %res12 = load atomic i8* %ptr1 singlethread seq_cst, align 1\r
119   %res12 = load atomic i8* %ptr1 singlethread seq_cst, align 1\r
120   \r
121 ; CHECK-NEXT: %res13 = load atomic volatile i8* %ptr1 singlethread unordered, align 1\r
122   %res13 = load atomic volatile i8* %ptr1 singlethread unordered, align 1\r
123   \r
124 ; CHECK-NEXT: %res14 = load atomic volatile i8* %ptr1 singlethread monotonic, align 1\r
125   %res14 = load atomic volatile i8* %ptr1 singlethread monotonic, align 1\r
126   \r
127 ; CHECK-NEXT: %res15 = load atomic volatile i8* %ptr1 singlethread acquire, align 1\r
128   %res15 = load atomic volatile i8* %ptr1 singlethread acquire, align 1\r
129   \r
130 ; CHECK-NEXT: %res16 = load atomic volatile i8* %ptr1 singlethread seq_cst, align 1\r
131   %res16 = load atomic volatile i8* %ptr1 singlethread seq_cst, align 1\r
132   \r
133   ret void\r
134 }\r
135 \r
136 define void @store(){\r
137 entry:\r
138   %ptr1 = alloca i8\r
139   \r
140 ; CHECK: store i8 2, i8* %ptr1\r
141   store i8 2, i8* %ptr1\r
142   \r
143 ; CHECK-NEXT: store volatile i8 2, i8* %ptr1\r
144   store volatile i8 2, i8* %ptr1\r
145   \r
146 ; CHECK-NEXT: store i8 2, i8* %ptr1, align 1\r
147   store i8 2, i8* %ptr1, align 1\r
148   \r
149 ; CHECK-NEXT: store volatile i8 2, i8* %ptr1, align 1\r
150   store volatile i8 2, i8* %ptr1, align 1\r
151   \r
152 ; CHECK-NEXT: store i8 2, i8* %ptr1, !nontemporal !0\r
153   store i8 2, i8* %ptr1, !nontemporal !0\r
154   \r
155 ; CHECK-NEXT: store volatile i8 2, i8* %ptr1, !nontemporal !0\r
156   store volatile i8 2, i8* %ptr1, !nontemporal !0\r
157   \r
158 ; CHECK-NEXT: store i8 2, i8* %ptr1, align 1, !nontemporal !0\r
159   store i8 2, i8* %ptr1, align 1, !nontemporal !0\r
160   \r
161 ; CHECK-NEXT: store volatile i8 2, i8* %ptr1, align 1, !nontemporal !0\r
162   store volatile i8 2, i8* %ptr1, align 1, !nontemporal !0\r
163   \r
164   ret void\r
165 }\r
166 \r
167 define void @storeAtomic(){\r
168 entry:\r
169   %ptr1 = alloca i8\r
170   \r
171 ; CHECK: store atomic i8 2, i8* %ptr1 unordered, align 1\r
172   store atomic i8 2, i8* %ptr1 unordered, align 1\r
173   \r
174 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 monotonic, align 1\r
175   store atomic i8 2, i8* %ptr1 monotonic, align 1\r
176   \r
177 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 release, align 1\r
178   store atomic i8 2, i8* %ptr1 release, align 1\r
179   \r
180 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 seq_cst, align 1\r
181   store atomic i8 2, i8* %ptr1 seq_cst, align 1\r
182   \r
183 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 unordered, align 1\r
184   store atomic volatile i8 2, i8* %ptr1 unordered, align 1\r
185   \r
186 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 monotonic, align 1\r
187   store atomic volatile i8 2, i8* %ptr1 monotonic, align 1\r
188   \r
189 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 release, align 1\r
190   store atomic volatile i8 2, i8* %ptr1 release, align 1\r
191   \r
192 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 seq_cst, align 1\r
193   store atomic volatile i8 2, i8* %ptr1 seq_cst, align 1\r
194   \r
195 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 singlethread unordered, align 1\r
196   store atomic i8 2, i8* %ptr1 singlethread unordered, align 1\r
197   \r
198 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 singlethread monotonic, align 1\r
199   store atomic i8 2, i8* %ptr1 singlethread monotonic, align 1\r
200   \r
201 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 singlethread release, align 1\r
202   store atomic i8 2, i8* %ptr1 singlethread release, align 1\r
203   \r
204 ; CHECK-NEXT: store atomic i8 2, i8* %ptr1 singlethread seq_cst, align 1\r
205   store atomic i8 2, i8* %ptr1 singlethread seq_cst, align 1\r
206   \r
207 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 singlethread unordered, align 1\r
208   store atomic volatile i8 2, i8* %ptr1 singlethread unordered, align 1\r
209   \r
210 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 singlethread monotonic, align 1\r
211   store atomic volatile i8 2, i8* %ptr1 singlethread monotonic, align 1\r
212   \r
213 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 singlethread release, align 1\r
214   store atomic volatile i8 2, i8* %ptr1 singlethread release, align 1\r
215   \r
216 ; CHECK-NEXT: store atomic volatile i8 2, i8* %ptr1 singlethread seq_cst, align 1\r
217   store atomic volatile i8 2, i8* %ptr1 singlethread seq_cst, align 1\r
218   \r
219   ret void\r
220 }\r
221 \r
222 define void @cmpxchg(i32* %ptr,i32 %cmp,i32 %new){\r
223 entry:\r
224   ;cmpxchg [volatile] <ty>* <pointer>, <ty> <cmp>, <ty> <new> [singlethread] <ordering>\r
225 \r
226 ; CHECK: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new monotonic monotonic\r
227 ; CHECK-NEXT: %res1 = extractvalue { i32, i1 } [[TMP]], 0\r
228   %res1 = cmpxchg i32* %ptr, i32 %cmp, i32 %new monotonic monotonic\r
229   \r
230 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new monotonic monotonic\r
231 ; CHECK-NEXT: %res2 = extractvalue { i32, i1 } [[TMP]], 0\r
232   %res2 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new monotonic monotonic\r
233   \r
234 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread monotonic monotonic\r
235 ; CHECK-NEXT: %res3 = extractvalue { i32, i1 } [[TMP]], 0\r
236   %res3 = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread monotonic monotonic\r
237   \r
238 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread monotonic monotonic\r
239 ; CHECK-NEXT: %res4 = extractvalue { i32, i1 } [[TMP]], 0\r
240   %res4 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread monotonic monotonic\r
241   \r
242   \r
243 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new acquire acquire\r
244 ; CHECK-NEXT: %res5 = extractvalue { i32, i1 } [[TMP]], 0\r
245   %res5 = cmpxchg i32* %ptr, i32 %cmp, i32 %new acquire acquire\r
246   \r
247 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new acquire acquire\r
248 ; CHECK-NEXT: %res6 = extractvalue { i32, i1 } [[TMP]], 0\r
249   %res6 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new acquire acquire\r
250   \r
251 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread acquire acquire\r
252 ; CHECK-NEXT: %res7 = extractvalue { i32, i1 } [[TMP]], 0\r
253   %res7 = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread acquire acquire\r
254   \r
255 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread acquire acquire\r
256 ; CHECK-NEXT: %res8 = extractvalue { i32, i1 } [[TMP]], 0\r
257   %res8 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread acquire acquire\r
258   \r
259   \r
260 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new release monotonic\r
261 ; CHECK-NEXT: %res9 = extractvalue { i32, i1 } [[TMP]], 0\r
262   %res9 = cmpxchg i32* %ptr, i32 %cmp, i32 %new release monotonic\r
263   \r
264 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new release monotonic\r
265 ; CHECK-NEXT: %res10 = extractvalue { i32, i1 } [[TMP]], 0\r
266   %res10 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new release monotonic\r
267   \r
268 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread release monotonic\r
269 ; CHECK-NEXT: %res11 = extractvalue { i32, i1 } [[TMP]], 0\r
270   %res11 = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread release monotonic\r
271   \r
272 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread release monotonic\r
273 ; CHECK-NEXT: %res12 = extractvalue { i32, i1 } [[TMP]], 0\r
274   %res12 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread release monotonic\r
275   \r
276   \r
277 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new acq_rel acquire\r
278 ; CHECK-NEXT: %res13 = extractvalue { i32, i1 } [[TMP]], 0\r
279   %res13 = cmpxchg i32* %ptr, i32 %cmp, i32 %new acq_rel acquire\r
280   \r
281 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new acq_rel acquire\r
282 ; CHECK-NEXT: %res14 = extractvalue { i32, i1 } [[TMP]], 0\r
283   %res14 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new acq_rel acquire\r
284   \r
285 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread acq_rel acquire\r
286 ; CHECK-NEXT: %res15 = extractvalue { i32, i1 } [[TMP]], 0\r
287   %res15 = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread acq_rel acquire\r
288   \r
289 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread acq_rel acquire\r
290 ; CHECK-NEXT: %res16 = extractvalue { i32, i1 } [[TMP]], 0\r
291   %res16 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread acq_rel acquire\r
292   \r
293   \r
294 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new seq_cst seq_cst\r
295 ; CHECK-NEXT: %res17 = extractvalue { i32, i1 } [[TMP]], 0\r
296   %res17 = cmpxchg i32* %ptr, i32 %cmp, i32 %new seq_cst seq_cst\r
297   \r
298 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new seq_cst seq_cst\r
299 ; CHECK-NEXT: %res18 = extractvalue { i32, i1 } [[TMP]], 0\r
300   %res18 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new seq_cst seq_cst\r
301   \r
302 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread seq_cst seq_cst\r
303 ; CHECK-NEXT: %res19 = extractvalue { i32, i1 } [[TMP]], 0\r
304   %res19 = cmpxchg i32* %ptr, i32 %cmp, i32 %new singlethread seq_cst seq_cst\r
305   \r
306 ; CHECK-NEXT: [[TMP:%[a-z0-9]+]] = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread seq_cst seq_cst\r
307 ; CHECK-NEXT: %res20 = extractvalue { i32, i1 } [[TMP]], 0\r
308   %res20 = cmpxchg volatile i32* %ptr, i32 %cmp, i32 %new singlethread seq_cst seq_cst\r
309 \r
310   ret void\r
311 }\r
312 \r
313 define void @getelementptr({i8, i8}* %s, <4 x i8*> %ptrs, <4 x i64> %offsets ){\r
314 entry:\r
315 ; CHECK: %res1 = getelementptr { i8, i8 }* %s, i32 1, i32 1\r
316   %res1 = getelementptr {i8, i8}* %s, i32 1, i32 1\r
317   \r
318 ; CHECK-NEXT: %res2 = getelementptr inbounds { i8, i8 }* %s, i32 1, i32 1\r
319   %res2 = getelementptr inbounds {i8, i8}* %s, i32 1, i32 1\r
320   \r
321 ; CHECK-NEXT: %res3 = getelementptr <4 x i8*> %ptrs, <4 x i64> %offsets\r
322   %res3 = getelementptr <4 x i8*> %ptrs, <4 x i64> %offsets\r
323   \r
324   ret void\r
325 }\r
326 \r
327 !0 = metadata !{ i32 1 }\r
328 !1 = metadata !{}