[x86] Enable the new vector shuffle lowering by default.
[oota-llvm.git] / test / CodeGen / X86 / sse41.ll
1 ; RUN: llc < %s -mtriple=i686-apple-darwin9 -mattr=sse4.1 -mcpu=penryn | FileCheck %s --check-prefix=X32
2 ; RUN: llc < %s -mtriple=x86_64-apple-darwin9 -mattr=sse4.1 -mcpu=penryn | FileCheck %s --check-prefix=X64
3
4 @g16 = external global i16
5
6 define <4 x i32> @pinsrd_1(i32 %s, <4 x i32> %tmp) nounwind {
7 ; X32-LABEL: pinsrd_1:
8 ; X32:       ## BB#0:
9 ; X32-NEXT:    pinsrd $1, {{[0-9]+}}(%esp), %xmm0
10 ; X32-NEXT:    retl
11 ;
12 ; X64-LABEL: pinsrd_1:
13 ; X64:       ## BB#0:
14 ; X64-NEXT:    pinsrd $1, %edi, %xmm0
15 ; X64-NEXT:    retq
16   %tmp1 = insertelement <4 x i32> %tmp, i32 %s, i32 1
17   ret <4 x i32> %tmp1
18 }
19
20 define <16 x i8> @pinsrb_1(i8 %s, <16 x i8> %tmp) nounwind {
21 ; X32-LABEL: pinsrb_1:
22 ; X32:       ## BB#0:
23 ; X32-NEXT:    pinsrb $1, {{[0-9]+}}(%esp), %xmm0
24 ; X32-NEXT:    retl
25 ;
26 ; X64-LABEL: pinsrb_1:
27 ; X64:       ## BB#0:
28 ; X64-NEXT:    pinsrb $1, %edi, %xmm0
29 ; X64-NEXT:    retq
30   %tmp1 = insertelement <16 x i8> %tmp, i8 %s, i32 1
31   ret <16 x i8> %tmp1
32 }
33
34 define <2 x i64> @pmovsxbd_1(i32* %p) nounwind {
35 ; X32-LABEL: pmovsxbd_1:
36 ; X32:       ## BB#0: ## %entry
37 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
38 ; X32-NEXT:    pmovsxbd (%eax), %xmm0
39 ; X32-NEXT:    retl
40 ;
41 ; X64-LABEL: pmovsxbd_1:
42 ; X64:       ## BB#0: ## %entry
43 ; X64-NEXT:    pmovsxbd (%rdi), %xmm0
44 ; X64-NEXT:    retq
45 entry:
46         %0 = load i32* %p, align 4
47         %1 = insertelement <4 x i32> undef, i32 %0, i32 0
48         %2 = insertelement <4 x i32> %1, i32 0, i32 1
49         %3 = insertelement <4 x i32> %2, i32 0, i32 2
50         %4 = insertelement <4 x i32> %3, i32 0, i32 3
51         %5 = bitcast <4 x i32> %4 to <16 x i8>
52         %6 = tail call <4 x i32> @llvm.x86.sse41.pmovsxbd(<16 x i8> %5) nounwind readnone
53         %7 = bitcast <4 x i32> %6 to <2 x i64>
54         ret <2 x i64> %7
55 }
56
57 define <2 x i64> @pmovsxwd_1(i64* %p) nounwind readonly {
58 ; X32-LABEL: pmovsxwd_1:
59 ; X32:       ## BB#0: ## %entry
60 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
61 ; X32-NEXT:    pmovsxwd (%eax), %xmm0
62 ; X32-NEXT:    retl
63 ;
64 ; X64-LABEL: pmovsxwd_1:
65 ; X64:       ## BB#0: ## %entry
66 ; X64-NEXT:    pmovsxwd (%rdi), %xmm0
67 ; X64-NEXT:    retq
68 entry:
69         %0 = load i64* %p               ; <i64> [#uses=1]
70         %tmp2 = insertelement <2 x i64> zeroinitializer, i64 %0, i32 0          ; <<2 x i64>> [#uses=1]
71         %1 = bitcast <2 x i64> %tmp2 to <8 x i16>               ; <<8 x i16>> [#uses=1]
72         %2 = tail call <4 x i32> @llvm.x86.sse41.pmovsxwd(<8 x i16> %1) nounwind readnone               ; <<4 x i32>> [#uses=1]
73         %3 = bitcast <4 x i32> %2 to <2 x i64>          ; <<2 x i64>> [#uses=1]
74         ret <2 x i64> %3
75 }
76
77 define <2 x i64> @pmovzxbq_1() nounwind {
78 ; X32-LABEL: pmovzxbq_1:
79 ; X32:       ## BB#0: ## %entry
80 ; X32-NEXT:    movl L_g16$non_lazy_ptr, %eax
81 ; X32-NEXT:    pmovzxbq (%eax), %xmm0
82 ; X32-NEXT:    retl
83 ;
84 ; X64-LABEL: pmovzxbq_1:
85 ; X64:       ## BB#0: ## %entry
86 ; X64-NEXT:    movq _g16@{{.*}}(%rip), %rax
87 ; X64-NEXT:    pmovzxbq (%rax), %xmm0
88 ; X64-NEXT:    retq
89 entry:
90         %0 = load i16* @g16, align 2            ; <i16> [#uses=1]
91         %1 = insertelement <8 x i16> undef, i16 %0, i32 0               ; <<8 x i16>> [#uses=1]
92         %2 = bitcast <8 x i16> %1 to <16 x i8>          ; <<16 x i8>> [#uses=1]
93         %3 = tail call <2 x i64> @llvm.x86.sse41.pmovzxbq(<16 x i8> %2) nounwind readnone               ; <<2 x i64>> [#uses=1]
94         ret <2 x i64> %3
95 }
96
97 declare <4 x i32> @llvm.x86.sse41.pmovsxbd(<16 x i8>) nounwind readnone
98 declare <4 x i32> @llvm.x86.sse41.pmovsxwd(<8 x i16>) nounwind readnone
99 declare <2 x i64> @llvm.x86.sse41.pmovzxbq(<16 x i8>) nounwind readnone
100
101 define i32 @extractps_1(<4 x float> %v) nounwind {
102 ; X32-LABEL: extractps_1:
103 ; X32:       ## BB#0:
104 ; X32-NEXT:    extractps $3, %xmm0, %eax
105 ; X32-NEXT:    retl
106 ;
107 ; X64-LABEL: extractps_1:
108 ; X64:       ## BB#0:
109 ; X64-NEXT:    extractps $3, %xmm0, %eax
110 ; X64-NEXT:    retq
111   %s = extractelement <4 x float> %v, i32 3
112   %i = bitcast float %s to i32
113   ret i32 %i
114 }
115 define i32 @extractps_2(<4 x float> %v) nounwind {
116 ; X32-LABEL: extractps_2:
117 ; X32:       ## BB#0:
118 ; X32-NEXT:    extractps $3, %xmm0, %eax
119 ; X32-NEXT:    retl
120 ;
121 ; X64-LABEL: extractps_2:
122 ; X64:       ## BB#0:
123 ; X64-NEXT:    extractps $3, %xmm0, %eax
124 ; X64-NEXT:    retq
125   %t = bitcast <4 x float> %v to <4 x i32>
126   %s = extractelement <4 x i32> %t, i32 3
127   ret i32 %s
128 }
129
130
131 ; The non-store form of extractps puts its result into a GPR.
132 ; This makes it suitable for an extract from a <4 x float> that
133 ; is bitcasted to i32, but unsuitable for much of anything else.
134
135 define float @ext_1(<4 x float> %v) nounwind {
136 ; X32-LABEL: ext_1:
137 ; X32:       ## BB#0:
138 ; X32-NEXT:    pushl %eax
139 ; X32-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
140 ; X32-NEXT:    addss LCPI7_0, %xmm0
141 ; X32-NEXT:    movss %xmm0, (%esp)
142 ; X32-NEXT:    flds (%esp)
143 ; X32-NEXT:    popl %eax
144 ; X32-NEXT:    retl
145 ;
146 ; X64-LABEL: ext_1:
147 ; X64:       ## BB#0:
148 ; X64-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
149 ; X64-NEXT:    addss {{.*}}(%rip), %xmm0
150 ; X64-NEXT:    retq
151   %s = extractelement <4 x float> %v, i32 3
152   %t = fadd float %s, 1.0
153   ret float %t
154 }
155 define float @ext_2(<4 x float> %v) nounwind {
156 ; X32-LABEL: ext_2:
157 ; X32:       ## BB#0:
158 ; X32-NEXT:    pushl %eax
159 ; X32-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
160 ; X32-NEXT:    movss %xmm0, (%esp)
161 ; X32-NEXT:    flds (%esp)
162 ; X32-NEXT:    popl %eax
163 ; X32-NEXT:    retl
164 ;
165 ; X64-LABEL: ext_2:
166 ; X64:       ## BB#0:
167 ; X64-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
168 ; X64-NEXT:    retq
169   %s = extractelement <4 x float> %v, i32 3
170   ret float %s
171 }
172 define i32 @ext_3(<4 x i32> %v) nounwind {
173 ; X32-LABEL: ext_3:
174 ; X32:       ## BB#0:
175 ; X32-NEXT:    pextrd $3, %xmm0, %eax
176 ; X32-NEXT:    retl
177 ;
178 ; X64-LABEL: ext_3:
179 ; X64:       ## BB#0:
180 ; X64-NEXT:    pextrd $3, %xmm0, %eax
181 ; X64-NEXT:    retq
182   %i = extractelement <4 x i32> %v, i32 3
183   ret i32 %i
184 }
185
186 define <4 x float> @insertps_1(<4 x float> %t1, <4 x float> %t2) nounwind {
187 ; X32-LABEL: insertps_1:
188 ; X32:       ## BB#0:
189 ; X32-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1,2,3]
190 ; X32-NEXT:    retl
191 ;
192 ; X64-LABEL: insertps_1:
193 ; X64:       ## BB#0:
194 ; X64-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1,2,3]
195 ; X64-NEXT:    retq
196   %tmp1 = call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %t1, <4 x float> %t2, i32 1) nounwind readnone
197   ret <4 x float> %tmp1
198 }
199
200 declare <4 x float> @llvm.x86.sse41.insertps(<4 x float>, <4 x float>, i32) nounwind readnone
201
202 define <4 x float> @insertps_2(<4 x float> %t1, float %t2) nounwind {
203 ; X32-LABEL: insertps_2:
204 ; X32:       ## BB#0:
205 ; X32-NEXT:    insertps $0, {{[0-9]+}}(%esp), %xmm0
206 ; X32-NEXT:    retl
207 ;
208 ; X64-LABEL: insertps_2:
209 ; X64:       ## BB#0:
210 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
211 ; X64-NEXT:    retq
212   %tmp1 = insertelement <4 x float> %t1, float %t2, i32 0
213   ret <4 x float> %tmp1
214 }
215 define <4 x float> @insertps_3(<4 x float> %t1, <4 x float> %t2) nounwind {
216 ; X32-LABEL: insertps_3:
217 ; X32:       ## BB#0:
218 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
219 ; X32-NEXT:    retl
220 ;
221 ; X64-LABEL: insertps_3:
222 ; X64:       ## BB#0:
223 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
224 ; X64-NEXT:    retq
225   %tmp2 = extractelement <4 x float> %t2, i32 0
226   %tmp1 = insertelement <4 x float> %t1, float %tmp2, i32 0
227   ret <4 x float> %tmp1
228 }
229
230 define i32 @ptestz_1(<2 x i64> %t1, <2 x i64> %t2) nounwind {
231 ; X32-LABEL: ptestz_1:
232 ; X32:       ## BB#0:
233 ; X32-NEXT:    ptest %xmm1, %xmm0
234 ; X32-NEXT:    sete %al
235 ; X32-NEXT:    movzbl %al, %eax
236 ; X32-NEXT:    retl
237 ;
238 ; X64-LABEL: ptestz_1:
239 ; X64:       ## BB#0:
240 ; X64-NEXT:    ptest %xmm1, %xmm0
241 ; X64-NEXT:    sete %al
242 ; X64-NEXT:    movzbl %al, %eax
243 ; X64-NEXT:    retq
244   %tmp1 = call i32 @llvm.x86.sse41.ptestz(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
245   ret i32 %tmp1
246 }
247
248 define i32 @ptestz_2(<2 x i64> %t1, <2 x i64> %t2) nounwind {
249 ; X32-LABEL: ptestz_2:
250 ; X32:       ## BB#0:
251 ; X32-NEXT:    ptest %xmm1, %xmm0
252 ; X32-NEXT:    sbbl %eax, %eax
253 ; X32-NEXT:    andl $1, %eax
254 ; X32-NEXT:    retl
255 ;
256 ; X64-LABEL: ptestz_2:
257 ; X64:       ## BB#0:
258 ; X64-NEXT:    ptest %xmm1, %xmm0
259 ; X64-NEXT:    sbbl %eax, %eax
260 ; X64-NEXT:    andl $1, %eax
261 ; X64-NEXT:    retq
262   %tmp1 = call i32 @llvm.x86.sse41.ptestc(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
263   ret i32 %tmp1
264 }
265
266 define i32 @ptestz_3(<2 x i64> %t1, <2 x i64> %t2) nounwind {
267 ; X32-LABEL: ptestz_3:
268 ; X32:       ## BB#0:
269 ; X32-NEXT:    ptest %xmm1, %xmm0
270 ; X32-NEXT:    seta %al
271 ; X32-NEXT:    movzbl %al, %eax
272 ; X32-NEXT:    retl
273 ;
274 ; X64-LABEL: ptestz_3:
275 ; X64:       ## BB#0:
276 ; X64-NEXT:    ptest %xmm1, %xmm0
277 ; X64-NEXT:    seta %al
278 ; X64-NEXT:    movzbl %al, %eax
279 ; X64-NEXT:    retq
280   %tmp1 = call i32 @llvm.x86.sse41.ptestnzc(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
281   ret i32 %tmp1
282 }
283
284
285 declare i32 @llvm.x86.sse41.ptestz(<2 x i64>, <2 x i64>) nounwind readnone
286 declare i32 @llvm.x86.sse41.ptestc(<2 x i64>, <2 x i64>) nounwind readnone
287 declare i32 @llvm.x86.sse41.ptestnzc(<2 x i64>, <2 x i64>) nounwind readnone
288
289 ; This used to compile to insertps $0  + insertps $16.  insertps $0 is always
290 ; pointless.
291 define <2 x float> @buildvector(<2 x float> %A, <2 x float> %B) nounwind  {
292 ; X32-LABEL: buildvector:
293 ; X32:       ## BB#0: ## %entry
294 ; X32-NEXT:    pshufd {{.*#+}} xmm2 = xmm0[1,1,2,3]
295 ; X32-NEXT:    addss %xmm1, %xmm0
296 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1,2,3]
297 ; X32-NEXT:    addss %xmm2, %xmm1
298 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[2,3]
299 ; X32-NEXT:    retl
300 ;
301 ; X64-LABEL: buildvector:
302 ; X64:       ## BB#0: ## %entry
303 ; X64-NEXT:    pshufd {{.*#+}} xmm2 = xmm0[1,1,2,3]
304 ; X64-NEXT:    addss %xmm1, %xmm0
305 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1,2,3]
306 ; X64-NEXT:    addss %xmm2, %xmm1
307 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[2,3]
308 ; X64-NEXT:    retq
309 entry:
310   %tmp7 = extractelement <2 x float> %A, i32 0
311   %tmp5 = extractelement <2 x float> %A, i32 1
312   %tmp3 = extractelement <2 x float> %B, i32 0
313   %tmp1 = extractelement <2 x float> %B, i32 1
314   %add.r = fadd float %tmp7, %tmp3
315   %add.i = fadd float %tmp5, %tmp1
316   %tmp11 = insertelement <2 x float> undef, float %add.r, i32 0
317   %tmp9 = insertelement <2 x float> %tmp11, float %add.i, i32 1
318   ret <2 x float> %tmp9
319 }
320
321 define <4 x float> @insertps_from_shufflevector_1(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
322 ; X32-LABEL: insertps_from_shufflevector_1:
323 ; X32:       ## BB#0: ## %entry
324 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
325 ; X32-NEXT:    insertps $48, (%eax), %xmm0
326 ; X32-NEXT:    retl
327 ;
328 ; X64-LABEL: insertps_from_shufflevector_1:
329 ; X64:       ## BB#0: ## %entry
330 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
331 ; X64-NEXT:    retq
332 entry:
333   %0 = load <4 x float>* %pb, align 16
334   %vecinit6 = shufflevector <4 x float> %a, <4 x float> %0, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
335   ret <4 x float> %vecinit6
336 }
337
338 define <4 x float> @insertps_from_shufflevector_2(<4 x float> %a, <4 x float> %b) {
339 ; X32-LABEL: insertps_from_shufflevector_2:
340 ; X32:       ## BB#0: ## %entry
341 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[1],xmm0[3]
342 ; X32-NEXT:    retl
343 ;
344 ; X64-LABEL: insertps_from_shufflevector_2:
345 ; X64:       ## BB#0: ## %entry
346 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[1],xmm0[3]
347 ; X64-NEXT:    retq
348 entry:
349   %vecinit6 = shufflevector <4 x float> %a, <4 x float> %b, <4 x i32> <i32 0, i32 1, i32 5, i32 3>
350   ret <4 x float> %vecinit6
351 }
352
353 ; For loading an i32 from memory into an xmm register we use pinsrd
354 ; instead of insertps
355 define <4 x i32> @pinsrd_from_shufflevector_i32(<4 x i32> %a, <4 x i32>* nocapture readonly %pb) {
356 ; X32-LABEL: pinsrd_from_shufflevector_i32:
357 ; X32:       ## BB#0: ## %entry
358 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
359 ; X32-NEXT:    insertps $48, (%eax), %xmm0
360 ; X32-NEXT:    retl
361 ;
362 ; X64-LABEL: pinsrd_from_shufflevector_i32:
363 ; X64:       ## BB#0: ## %entry
364 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
365 ; X64-NEXT:    retq
366 entry:
367   %0 = load <4 x i32>* %pb, align 16
368   %vecinit6 = shufflevector <4 x i32> %a, <4 x i32> %0, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
369   ret <4 x i32> %vecinit6
370 }
371
372 define <4 x i32> @insertps_from_shufflevector_i32_2(<4 x i32> %a, <4 x i32> %b) {
373 ; X32-LABEL: insertps_from_shufflevector_i32_2:
374 ; X32:       ## BB#0: ## %entry
375 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[3],xmm0[2,3]
376 ; X32-NEXT:    retl
377 ;
378 ; X64-LABEL: insertps_from_shufflevector_i32_2:
379 ; X64:       ## BB#0: ## %entry
380 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[3],xmm0[2,3]
381 ; X64-NEXT:    retq
382 entry:
383   %vecinit6 = shufflevector <4 x i32> %a, <4 x i32> %b, <4 x i32> <i32 0, i32 7, i32 2, i32 3>
384   ret <4 x i32> %vecinit6
385 }
386
387 define <4 x float> @insertps_from_load_ins_elt_undef(<4 x float> %a, float* %b) {
388 ; X32-LABEL: insertps_from_load_ins_elt_undef:
389 ; X32:       ## BB#0:
390 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
391 ; X32-NEXT:    insertps $16, (%eax), %xmm0
392 ; X32-NEXT:    retl
393 ;
394 ; X64-LABEL: insertps_from_load_ins_elt_undef:
395 ; X64:       ## BB#0:
396 ; X64-NEXT:    insertps $16, (%rdi), %xmm0
397 ; X64-NEXT:    retq
398   %1 = load float* %b, align 4
399   %2 = insertelement <4 x float> undef, float %1, i32 0
400   %result = shufflevector <4 x float> %a, <4 x float> %2, <4 x i32> <i32 0, i32 4, i32 2, i32 3>
401   ret <4 x float> %result
402 }
403
404 ; TODO: Like on pinsrd_from_shufflevector_i32, remove this mov instr
405 define <4 x i32> @insertps_from_load_ins_elt_undef_i32(<4 x i32> %a, i32* %b) {
406 ; X32-LABEL: insertps_from_load_ins_elt_undef_i32:
407 ; X32:       ## BB#0:
408 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
409 ; X32-NEXT:    movd (%eax), %xmm1
410 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[0],xmm0[3]
411 ; X32-NEXT:    retl
412 ;
413 ; X64-LABEL: insertps_from_load_ins_elt_undef_i32:
414 ; X64:       ## BB#0:
415 ; X64-NEXT:    movd (%rdi), %xmm1
416 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[0],xmm0[3]
417 ; X64-NEXT:    retq
418   %1 = load i32* %b, align 4
419   %2 = insertelement <4 x i32> undef, i32 %1, i32 0
420   %result = shufflevector <4 x i32> %a, <4 x i32> %2, <4 x i32> <i32 0, i32 1, i32 4, i32 3>
421   ret <4 x i32> %result
422 }
423
424 ;;;;;; Shuffles optimizable with a single insertps instruction
425 define <4 x float> @shuf_XYZ0(<4 x float> %x, <4 x float> %a) {
426 ; X32-LABEL: shuf_XYZ0:
427 ; X32:       ## BB#0:
428 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
429 ; X32-NEXT:    retl
430 ;
431 ; X64-LABEL: shuf_XYZ0:
432 ; X64:       ## BB#0:
433 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
434 ; X64-NEXT:    retq
435   %vecext = extractelement <4 x float> %x, i32 0
436   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
437   %vecext1 = extractelement <4 x float> %x, i32 1
438   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
439   %vecext3 = extractelement <4 x float> %x, i32 2
440   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext3, i32 2
441   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
442   ret <4 x float> %vecinit5
443 }
444
445 define <4 x float> @shuf_XY00(<4 x float> %x, <4 x float> %a) {
446 ; X32-LABEL: shuf_XY00:
447 ; X32:       ## BB#0:
448 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
449 ; X32-NEXT:    retl
450 ;
451 ; X64-LABEL: shuf_XY00:
452 ; X64:       ## BB#0:
453 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
454 ; X64-NEXT:    retq
455   %vecext = extractelement <4 x float> %x, i32 0
456   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
457   %vecext1 = extractelement <4 x float> %x, i32 1
458   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
459   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.0, i32 2
460   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.0, i32 3
461   ret <4 x float> %vecinit4
462 }
463
464 define <4 x float> @shuf_XYY0(<4 x float> %x, <4 x float> %a) {
465 ; X32-LABEL: shuf_XYY0:
466 ; X32:       ## BB#0:
467 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
468 ; X32-NEXT:    retl
469 ;
470 ; X64-LABEL: shuf_XYY0:
471 ; X64:       ## BB#0:
472 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
473 ; X64-NEXT:    retq
474   %vecext = extractelement <4 x float> %x, i32 0
475   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
476   %vecext1 = extractelement <4 x float> %x, i32 1
477   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
478   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext1, i32 2
479   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
480   ret <4 x float> %vecinit5
481 }
482
483 define <4 x float> @shuf_XYW0(<4 x float> %x, <4 x float> %a) {
484 ; X32-LABEL: shuf_XYW0:
485 ; X32:       ## BB#0:
486 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
487 ; X32-NEXT:    retl
488 ;
489 ; X64-LABEL: shuf_XYW0:
490 ; X64:       ## BB#0:
491 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
492 ; X64-NEXT:    retq
493   %vecext = extractelement <4 x float> %x, i32 0
494   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
495   %vecext1 = extractelement <4 x float> %x, i32 1
496   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
497   %vecext2 = extractelement <4 x float> %x, i32 3
498   %vecinit3 = insertelement <4 x float> %vecinit2, float %vecext2, i32 2
499   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.0, i32 3
500   ret <4 x float> %vecinit4
501 }
502
503 define <4 x float> @shuf_W00W(<4 x float> %x, <4 x float> %a) {
504 ; X32-LABEL: shuf_W00W:
505 ; X32:       ## BB#0:
506 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
507 ; X32-NEXT:    retl
508 ;
509 ; X64-LABEL: shuf_W00W:
510 ; X64:       ## BB#0:
511 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
512 ; X64-NEXT:    retq
513   %vecext = extractelement <4 x float> %x, i32 3
514   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
515   %vecinit2 = insertelement <4 x float> %vecinit, float 0.0, i32 1
516   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.0, i32 2
517   %vecinit4 = insertelement <4 x float> %vecinit3, float %vecext, i32 3
518   ret <4 x float> %vecinit4
519 }
520
521 define <4 x float> @shuf_X00A(<4 x float> %x, <4 x float> %a) {
522 ; X32-LABEL: shuf_X00A:
523 ; X32:       ## BB#0:
524 ; X32-NEXT:    xorps %xmm2, %xmm2
525 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
526 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0],zero,zero,xmm1[0]
527 ; X32-NEXT:    movaps %xmm2, %xmm0
528 ; X32-NEXT:    retl
529 ;
530 ; X64-LABEL: shuf_X00A:
531 ; X64:       ## BB#0:
532 ; X64-NEXT:    xorps %xmm2, %xmm2
533 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
534 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0],zero,zero,xmm1[0]
535 ; X64-NEXT:    movaps %xmm2, %xmm0
536 ; X64-NEXT:    retq
537   %vecext = extractelement <4 x float> %x, i32 0
538   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
539   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
540   %vecinit2 = insertelement <4 x float> %vecinit1, float 0.0, i32 2
541   %vecinit4 = shufflevector <4 x float> %vecinit2, <4 x float> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
542   ret <4 x float> %vecinit4
543 }
544
545 define <4 x float> @shuf_X00X(<4 x float> %x, <4 x float> %a) {
546 ; X32-LABEL: shuf_X00X:
547 ; X32:       ## BB#0:
548 ; X32-NEXT:    xorps %xmm1, %xmm1
549 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
550 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,zero,xmm0[0]
551 ; X32-NEXT:    movaps %xmm1, %xmm0
552 ; X32-NEXT:    retl
553 ;
554 ; X64-LABEL: shuf_X00X:
555 ; X64:       ## BB#0:
556 ; X64-NEXT:    xorps %xmm1, %xmm1
557 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
558 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,zero,xmm0[0]
559 ; X64-NEXT:    movaps %xmm1, %xmm0
560 ; X64-NEXT:    retq
561   %vecext = extractelement <4 x float> %x, i32 0
562   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
563   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
564   %vecinit2 = insertelement <4 x float> %vecinit1, float 0.0, i32 2
565   %vecinit4 = shufflevector <4 x float> %vecinit2, <4 x float> %x, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
566   ret <4 x float> %vecinit4
567 }
568
569 define <4 x float> @shuf_X0YC(<4 x float> %x, <4 x float> %a) {
570 ; X32-LABEL: shuf_X0YC:
571 ; X32:       ## BB#0:
572 ; X32-NEXT:    xorps %xmm2, %xmm2
573 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
574 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0],zero,xmm0[1],zero
575 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
576 ; X32-NEXT:    movaps %xmm2, %xmm0
577 ; X32-NEXT:    retl
578 ;
579 ; X64-LABEL: shuf_X0YC:
580 ; X64:       ## BB#0:
581 ; X64-NEXT:    xorps %xmm2, %xmm2
582 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
583 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0],zero,xmm0[1],zero
584 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
585 ; X64-NEXT:    movaps %xmm2, %xmm0
586 ; X64-NEXT:    retq
587   %vecext = extractelement <4 x float> %x, i32 0
588   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
589   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
590   %vecinit3 = shufflevector <4 x float> %vecinit1, <4 x float> %x, <4 x i32> <i32 0, i32 1, i32 5, i32 undef>
591   %vecinit5 = shufflevector <4 x float> %vecinit3, <4 x float> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 6>
592   ret <4 x float> %vecinit5
593 }
594
595 define <4 x i32> @i32_shuf_XYZ0(<4 x i32> %x, <4 x i32> %a) {
596 ; X32-LABEL: i32_shuf_XYZ0:
597 ; X32:       ## BB#0:
598 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
599 ; X32-NEXT:    retl
600 ;
601 ; X64-LABEL: i32_shuf_XYZ0:
602 ; X64:       ## BB#0:
603 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
604 ; X64-NEXT:    retq
605   %vecext = extractelement <4 x i32> %x, i32 0
606   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
607   %vecext1 = extractelement <4 x i32> %x, i32 1
608   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
609   %vecext3 = extractelement <4 x i32> %x, i32 2
610   %vecinit4 = insertelement <4 x i32> %vecinit2, i32 %vecext3, i32 2
611   %vecinit5 = insertelement <4 x i32> %vecinit4, i32 0, i32 3
612   ret <4 x i32> %vecinit5
613 }
614
615 define <4 x i32> @i32_shuf_XY00(<4 x i32> %x, <4 x i32> %a) {
616 ; X32-LABEL: i32_shuf_XY00:
617 ; X32:       ## BB#0:
618 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
619 ; X32-NEXT:    retl
620 ;
621 ; X64-LABEL: i32_shuf_XY00:
622 ; X64:       ## BB#0:
623 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
624 ; X64-NEXT:    retq
625   %vecext = extractelement <4 x i32> %x, i32 0
626   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
627   %vecext1 = extractelement <4 x i32> %x, i32 1
628   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
629   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 0, i32 2
630   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 0, i32 3
631   ret <4 x i32> %vecinit4
632 }
633
634 define <4 x i32> @i32_shuf_XYY0(<4 x i32> %x, <4 x i32> %a) {
635 ; X32-LABEL: i32_shuf_XYY0:
636 ; X32:       ## BB#0:
637 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
638 ; X32-NEXT:    retl
639 ;
640 ; X64-LABEL: i32_shuf_XYY0:
641 ; X64:       ## BB#0:
642 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
643 ; X64-NEXT:    retq
644   %vecext = extractelement <4 x i32> %x, i32 0
645   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
646   %vecext1 = extractelement <4 x i32> %x, i32 1
647   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
648   %vecinit4 = insertelement <4 x i32> %vecinit2, i32 %vecext1, i32 2
649   %vecinit5 = insertelement <4 x i32> %vecinit4, i32 0, i32 3
650   ret <4 x i32> %vecinit5
651 }
652
653 define <4 x i32> @i32_shuf_XYW0(<4 x i32> %x, <4 x i32> %a) {
654 ; X32-LABEL: i32_shuf_XYW0:
655 ; X32:       ## BB#0:
656 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
657 ; X32-NEXT:    retl
658 ;
659 ; X64-LABEL: i32_shuf_XYW0:
660 ; X64:       ## BB#0:
661 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
662 ; X64-NEXT:    retq
663   %vecext = extractelement <4 x i32> %x, i32 0
664   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
665   %vecext1 = extractelement <4 x i32> %x, i32 1
666   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
667   %vecext2 = extractelement <4 x i32> %x, i32 3
668   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 %vecext2, i32 2
669   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 0, i32 3
670   ret <4 x i32> %vecinit4
671 }
672
673 define <4 x i32> @i32_shuf_W00W(<4 x i32> %x, <4 x i32> %a) {
674 ; X32-LABEL: i32_shuf_W00W:
675 ; X32:       ## BB#0:
676 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
677 ; X32-NEXT:    retl
678 ;
679 ; X64-LABEL: i32_shuf_W00W:
680 ; X64:       ## BB#0:
681 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
682 ; X64-NEXT:    retq
683   %vecext = extractelement <4 x i32> %x, i32 3
684   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
685   %vecinit2 = insertelement <4 x i32> %vecinit, i32 0, i32 1
686   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 0, i32 2
687   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 %vecext, i32 3
688   ret <4 x i32> %vecinit4
689 }
690
691 define <4 x i32> @i32_shuf_X00A(<4 x i32> %x, <4 x i32> %a) {
692 ; X32-LABEL: i32_shuf_X00A:
693 ; X32:       ## BB#0:
694 ; X32-NEXT:    xorps %xmm2, %xmm2
695 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
696 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[0]
697 ; X32-NEXT:    movaps %xmm2, %xmm0
698 ; X32-NEXT:    retl
699 ;
700 ; X64-LABEL: i32_shuf_X00A:
701 ; X64:       ## BB#0:
702 ; X64-NEXT:    xorps %xmm2, %xmm2
703 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
704 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[0]
705 ; X64-NEXT:    movaps %xmm2, %xmm0
706 ; X64-NEXT:    retq
707   %vecext = extractelement <4 x i32> %x, i32 0
708   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
709   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
710   %vecinit2 = insertelement <4 x i32> %vecinit1, i32 0, i32 2
711   %vecinit4 = shufflevector <4 x i32> %vecinit2, <4 x i32> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
712   ret <4 x i32> %vecinit4
713 }
714
715 define <4 x i32> @i32_shuf_X00X(<4 x i32> %x, <4 x i32> %a) {
716 ; X32-LABEL: i32_shuf_X00X:
717 ; X32:       ## BB#0:
718 ; X32-NEXT:    xorps %xmm1, %xmm1
719 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
720 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
721 ; X32-NEXT:    movaps %xmm1, %xmm0
722 ; X32-NEXT:    retl
723 ;
724 ; X64-LABEL: i32_shuf_X00X:
725 ; X64:       ## BB#0:
726 ; X64-NEXT:    xorps %xmm1, %xmm1
727 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
728 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
729 ; X64-NEXT:    movaps %xmm1, %xmm0
730 ; X64-NEXT:    retq
731   %vecext = extractelement <4 x i32> %x, i32 0
732   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
733   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
734   %vecinit2 = insertelement <4 x i32> %vecinit1, i32 0, i32 2
735   %vecinit4 = shufflevector <4 x i32> %vecinit2, <4 x i32> %x, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
736   ret <4 x i32> %vecinit4
737 }
738
739 define <4 x i32> @i32_shuf_X0YC(<4 x i32> %x, <4 x i32> %a) {
740 ; X32-LABEL: i32_shuf_X0YC:
741 ; X32:       ## BB#0:
742 ; X32-NEXT:    xorps %xmm2, %xmm2
743 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
744 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
745 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
746 ; X32-NEXT:    movaps %xmm2, %xmm0
747 ; X32-NEXT:    retl
748 ;
749 ; X64-LABEL: i32_shuf_X0YC:
750 ; X64:       ## BB#0:
751 ; X64-NEXT:    xorps %xmm2, %xmm2
752 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
753 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
754 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
755 ; X64-NEXT:    movaps %xmm2, %xmm0
756 ; X64-NEXT:    retq
757   %vecext = extractelement <4 x i32> %x, i32 0
758   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
759   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
760   %vecinit3 = shufflevector <4 x i32> %vecinit1, <4 x i32> %x, <4 x i32> <i32 0, i32 1, i32 5, i32 undef>
761   %vecinit5 = shufflevector <4 x i32> %vecinit3, <4 x i32> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 6>
762   ret <4 x i32> %vecinit5
763 }
764
765 ;; Test for a bug in the first implementation of LowerBuildVectorv4x32
766 define < 4 x float> @test_insertps_no_undef(<4 x float> %x) {
767 ; X32-LABEL: test_insertps_no_undef:
768 ; X32:       ## BB#0:
769 ; X32-NEXT:    movaps %xmm0, %xmm1
770 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],zero
771 ; X32-NEXT:    maxps %xmm1, %xmm0
772 ; X32-NEXT:    retl
773 ;
774 ; X64-LABEL: test_insertps_no_undef:
775 ; X64:       ## BB#0:
776 ; X64-NEXT:    movaps %xmm0, %xmm1
777 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],zero
778 ; X64-NEXT:    maxps %xmm1, %xmm0
779 ; X64-NEXT:    retq
780   %vecext = extractelement <4 x float> %x, i32 0
781   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
782   %vecext1 = extractelement <4 x float> %x, i32 1
783   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
784   %vecext3 = extractelement <4 x float> %x, i32 2
785   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext3, i32 2
786   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
787   %mask = fcmp olt <4 x float> %vecinit5, %x
788   %res = select  <4 x i1> %mask, <4 x float> %x, <4 x float>%vecinit5
789   ret <4 x float> %res
790 }
791
792 define <8 x i16> @blendvb_fallback(<8 x i1> %mask, <8 x i16> %x, <8 x i16> %y) {
793 ; X32-LABEL: blendvb_fallback:
794 ; X32:       ## BB#0:
795 ; X32-NEXT:    psllw $15, %xmm0
796 ; X32-NEXT:    psraw $15, %xmm0
797 ; X32-NEXT:    pblendvb %xmm1, %xmm2
798 ; X32-NEXT:    movdqa %xmm2, %xmm0
799 ; X32-NEXT:    retl
800 ;
801 ; X64-LABEL: blendvb_fallback:
802 ; X64:       ## BB#0:
803 ; X64-NEXT:    psllw $15, %xmm0
804 ; X64-NEXT:    psraw $15, %xmm0
805 ; X64-NEXT:    pblendvb %xmm1, %xmm2
806 ; X64-NEXT:    movdqa %xmm2, %xmm0
807 ; X64-NEXT:    retq
808   %ret = select <8 x i1> %mask, <8 x i16> %x, <8 x i16> %y
809   ret <8 x i16> %ret
810 }
811
812 ; On X32, account for the argument's move to registers
813 define <4 x float> @insertps_from_vector_load(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
814 ; X32-LABEL: insertps_from_vector_load:
815 ; X32:       ## BB#0:
816 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
817 ; X32-NEXT:    insertps $48, (%eax), %xmm0
818 ; X32-NEXT:    retl
819 ;
820 ; X64-LABEL: insertps_from_vector_load:
821 ; X64:       ## BB#0:
822 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
823 ; X64-NEXT:    retq
824   %1 = load <4 x float>* %pb, align 16
825   %2 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %1, i32 48)
826   ret <4 x float> %2
827 }
828
829 ;; Use a non-zero CountS for insertps
830 ;; Try to match a bit more of the instr, since we need the load's offset.
831 define <4 x float> @insertps_from_vector_load_offset(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
832 ; X32-LABEL: insertps_from_vector_load_offset:
833 ; X32:       ## BB#0:
834 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
835 ; X32-NEXT:    insertps $96, 4(%eax), %xmm0
836 ; X32-NEXT:    retl
837 ;
838 ; X64-LABEL: insertps_from_vector_load_offset:
839 ; X64:       ## BB#0:
840 ; X64-NEXT:    insertps $96, 4(%rdi), %xmm0
841 ; X64-NEXT:    retq
842   %1 = load <4 x float>* %pb, align 16
843   %2 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %1, i32 96)
844   ret <4 x float> %2
845 }
846
847 ;; Try to match a bit more of the instr, since we need the load's offset.
848 define <4 x float> @insertps_from_vector_load_offset_2(<4 x float> %a, <4 x float>* nocapture readonly %pb, i64 %index) {
849 ; X32-LABEL: insertps_from_vector_load_offset_2:
850 ; X32:       ## BB#0:
851 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
852 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
853 ; X32-NEXT:    shll $4, %ecx
854 ; X32-NEXT:    insertps $-64, 12(%eax,%ecx), %xmm0
855 ; X32-NEXT:    retl
856 ;
857 ; X64-LABEL: insertps_from_vector_load_offset_2:
858 ; X64:       ## BB#0:
859 ; X64-NEXT:    shlq $4, %rsi
860 ; X64-NEXT:    insertps $-64, 12(%rdi,%rsi), %xmm0
861 ; X64-NEXT:    retq
862   %1 = getelementptr inbounds <4 x float>* %pb, i64 %index
863   %2 = load <4 x float>* %1, align 16
864   %3 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %2, i32 192)
865   ret <4 x float> %3
866 }
867
868 define <4 x float> @insertps_from_broadcast_loadf32(<4 x float> %a, float* nocapture readonly %fb, i64 %index) {
869 ; X32-LABEL: insertps_from_broadcast_loadf32:
870 ; X32:       ## BB#0:
871 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
872 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
873 ; X32-NEXT:    movss (%ecx,%eax,4), %xmm1
874 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
875 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
876 ; X32-NEXT:    retl
877 ;
878 ; X64-LABEL: insertps_from_broadcast_loadf32:
879 ; X64:       ## BB#0:
880 ; X64-NEXT:    movss (%rdi,%rsi,4), %xmm1
881 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
882 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
883 ; X64-NEXT:    retq
884   %1 = getelementptr inbounds float* %fb, i64 %index
885   %2 = load float* %1, align 4
886   %3 = insertelement <4 x float> undef, float %2, i32 0
887   %4 = insertelement <4 x float> %3, float %2, i32 1
888   %5 = insertelement <4 x float> %4, float %2, i32 2
889   %6 = insertelement <4 x float> %5, float %2, i32 3
890   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
891   ret <4 x float> %7
892 }
893
894 define <4 x float> @insertps_from_broadcast_loadv4f32(<4 x float> %a, <4 x float>* nocapture readonly %b) {
895 ; X32-LABEL: insertps_from_broadcast_loadv4f32:
896 ; X32:       ## BB#0:
897 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
898 ; X32-NEXT:    movups (%eax), %xmm1
899 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
900 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
901 ; X32-NEXT:    retl
902 ;
903 ; X64-LABEL: insertps_from_broadcast_loadv4f32:
904 ; X64:       ## BB#0:
905 ; X64-NEXT:    movups (%rdi), %xmm1
906 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
907 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
908 ; X64-NEXT:    retq
909   %1 = load <4 x float>* %b, align 4
910   %2 = extractelement <4 x float> %1, i32 0
911   %3 = insertelement <4 x float> undef, float %2, i32 0
912   %4 = insertelement <4 x float> %3, float %2, i32 1
913   %5 = insertelement <4 x float> %4, float %2, i32 2
914   %6 = insertelement <4 x float> %5, float %2, i32 3
915   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
916   ret <4 x float> %7
917 }
918
919 ;; FIXME: We're emitting an extraneous pshufd/vbroadcast.
920 define <4 x float> @insertps_from_broadcast_multiple_use(<4 x float> %a, <4 x float> %b, <4 x float> %c, <4 x float> %d, float* nocapture readonly %fb, i64 %index) {
921 ; X32-LABEL: insertps_from_broadcast_multiple_use:
922 ; X32:       ## BB#0:
923 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
924 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
925 ; X32-NEXT:    movss (%ecx,%eax,4), %xmm4
926 ; X32-NEXT:    shufps {{.*#+}} xmm4 = xmm4[0,0,0,0]
927 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm4[0]
928 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm4[0]
929 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm4[0]
930 ; X32-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
931 ; X32-NEXT:    addps %xmm1, %xmm0
932 ; X32-NEXT:    addps %xmm2, %xmm3
933 ; X32-NEXT:    addps %xmm3, %xmm0
934 ; X32-NEXT:    retl
935 ;
936 ; X64-LABEL: insertps_from_broadcast_multiple_use:
937 ; X64:       ## BB#0:
938 ; X64-NEXT:    movss (%rdi,%rsi,4), %xmm4
939 ; X64-NEXT:    shufps {{.*#+}} xmm4 = xmm4[0,0,0,0]
940 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm4[0]
941 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm4[0]
942 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm4[0]
943 ; X64-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
944 ; X64-NEXT:    addps %xmm1, %xmm0
945 ; X64-NEXT:    addps %xmm2, %xmm3
946 ; X64-NEXT:    addps %xmm3, %xmm0
947 ; X64-NEXT:    retq
948   %1 = getelementptr inbounds float* %fb, i64 %index
949   %2 = load float* %1, align 4
950   %3 = insertelement <4 x float> undef, float %2, i32 0
951   %4 = insertelement <4 x float> %3, float %2, i32 1
952   %5 = insertelement <4 x float> %4, float %2, i32 2
953   %6 = insertelement <4 x float> %5, float %2, i32 3
954   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
955   %8 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %b, <4 x float> %6, i32 48)
956   %9 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %c, <4 x float> %6, i32 48)
957   %10 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %d, <4 x float> %6, i32 48)
958   %11 = fadd <4 x float> %7, %8
959   %12 = fadd <4 x float> %9, %10
960   %13 = fadd <4 x float> %11, %12
961   ret <4 x float> %13
962 }
963
964 define <4 x float> @insertps_with_undefs(<4 x float> %a, float* %b) {
965 ; X32-LABEL: insertps_with_undefs:
966 ; X32:       ## BB#0:
967 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
968 ; X32-NEXT:    movss (%eax), %xmm1
969 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,xmm0[0],xmm1[3]
970 ; X32-NEXT:    movaps %xmm1, %xmm0
971 ; X32-NEXT:    retl
972 ;
973 ; X64-LABEL: insertps_with_undefs:
974 ; X64:       ## BB#0:
975 ; X64-NEXT:    movss (%rdi), %xmm1
976 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,xmm0[0],xmm1[3]
977 ; X64-NEXT:    movaps %xmm1, %xmm0
978 ; X64-NEXT:    retq
979   %1 = load float* %b, align 4
980   %2 = insertelement <4 x float> undef, float %1, i32 0
981   %result = shufflevector <4 x float> %a, <4 x float> %2, <4 x i32> <i32 4, i32 undef, i32 0, i32 7>
982   ret <4 x float> %result
983 }
984
985 ; Test for a bug in X86ISelLowering.cpp:getINSERTPS where we were using
986 ; the destination index to change the load, instead of the source index.
987 define <4 x float> @pr20087(<4 x float> %a, <4 x float> *%ptr) {
988 ; X32-LABEL: pr20087:
989 ; X32:       ## BB#0:
990 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
991 ; X32-NEXT:    insertps $-78, 8(%eax), %xmm0
992 ; X32-NEXT:    retl
993 ;
994 ; X64-LABEL: pr20087:
995 ; X64:       ## BB#0:
996 ; X64-NEXT:    insertps $-78, 8(%rdi), %xmm0
997 ; X64-NEXT:    retq
998   %load = load <4 x float> *%ptr
999   %ret = shufflevector <4 x float> %load, <4 x float> %a, <4 x i32> <i32 4, i32 undef, i32 6, i32 2>
1000   ret <4 x float> %ret
1001 }
1002
1003 ; Edge case for insertps where we end up with a shuffle with mask=<0, 7, -1, -1>
1004 define void @insertps_pr20411(i32* noalias nocapture %RET) #1 {
1005 ; X32-LABEL: insertps_pr20411:
1006 ; X32:       ## BB#0:
1007 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
1008 ; X32-NEXT:    pshufd {{.*#+}} xmm0 = mem[3,1,2,3]
1009 ; X32-NEXT:    insertps $-36, LCPI49_1+12, %xmm0
1010 ; X32-NEXT:    movups %xmm0, (%eax)
1011 ; X32-NEXT:    retl
1012 ;
1013 ; X64-LABEL: insertps_pr20411:
1014 ; X64:       ## BB#0:
1015 ; X64-NEXT:    pshufd {{.*#+}} xmm0 = mem[3,1,2,3]
1016 ; X64-NEXT:    insertps $-36, LCPI49_1+{{.*}}(%rip), %xmm0
1017 ; X64-NEXT:    movups %xmm0, (%rdi)
1018 ; X64-NEXT:    retq
1019   %gather_load = shufflevector <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>, <8 x i32> undef, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
1020   %shuffle109 = shufflevector <4 x i32> <i32 4, i32 5, i32 6, i32 7>, <4 x i32> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 3>  ; 4 5 6 7
1021   %shuffle116 = shufflevector <8 x i32> %gather_load, <8 x i32> undef, <4 x i32> <i32 3, i32 undef, i32 undef, i32 undef> ; 3 x x x
1022   %shuffle117 = shufflevector <4 x i32> %shuffle109, <4 x i32> %shuffle116, <4 x i32> <i32 4, i32 3, i32 undef, i32 undef> ; 3 7 x x
1023   %ptrcast = bitcast i32* %RET to <4 x i32>*
1024   store <4 x i32> %shuffle117, <4 x i32>* %ptrcast, align 4
1025   ret void
1026 }