[X86] Fixes bug in build_vector v4x32 lowering
[oota-llvm.git] / test / CodeGen / X86 / sse41.ll
1 ; RUN: llc < %s -mtriple=i686-apple-darwin9 -mattr=sse4.1 -mcpu=penryn | FileCheck %s --check-prefix=X32
2 ; RUN: llc < %s -mtriple=x86_64-apple-darwin9 -mattr=sse4.1 -mcpu=penryn | FileCheck %s --check-prefix=X64
3
4 @g16 = external global i16
5
6 define <4 x i32> @pinsrd_1(i32 %s, <4 x i32> %tmp) nounwind {
7 ; X32-LABEL: pinsrd_1:
8 ; X32:       ## BB#0:
9 ; X32-NEXT:    pinsrd $1, {{[0-9]+}}(%esp), %xmm0
10 ; X32-NEXT:    retl
11 ;
12 ; X64-LABEL: pinsrd_1:
13 ; X64:       ## BB#0:
14 ; X64-NEXT:    pinsrd $1, %edi, %xmm0
15 ; X64-NEXT:    retq
16   %tmp1 = insertelement <4 x i32> %tmp, i32 %s, i32 1
17   ret <4 x i32> %tmp1
18 }
19
20 define <16 x i8> @pinsrb_1(i8 %s, <16 x i8> %tmp) nounwind {
21 ; X32-LABEL: pinsrb_1:
22 ; X32:       ## BB#0:
23 ; X32-NEXT:    pinsrb $1, {{[0-9]+}}(%esp), %xmm0
24 ; X32-NEXT:    retl
25 ;
26 ; X64-LABEL: pinsrb_1:
27 ; X64:       ## BB#0:
28 ; X64-NEXT:    pinsrb $1, %edi, %xmm0
29 ; X64-NEXT:    retq
30   %tmp1 = insertelement <16 x i8> %tmp, i8 %s, i32 1
31   ret <16 x i8> %tmp1
32 }
33
34 define <2 x i64> @pmovsxbd_1(i32* %p) nounwind {
35 ; X32-LABEL: pmovsxbd_1:
36 ; X32:       ## BB#0: ## %entry
37 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
38 ; X32-NEXT:    pmovsxbd (%eax), %xmm0
39 ; X32-NEXT:    retl
40 ;
41 ; X64-LABEL: pmovsxbd_1:
42 ; X64:       ## BB#0: ## %entry
43 ; X64-NEXT:    pmovsxbd (%rdi), %xmm0
44 ; X64-NEXT:    retq
45 entry:
46         %0 = load i32* %p, align 4
47         %1 = insertelement <4 x i32> undef, i32 %0, i32 0
48         %2 = insertelement <4 x i32> %1, i32 0, i32 1
49         %3 = insertelement <4 x i32> %2, i32 0, i32 2
50         %4 = insertelement <4 x i32> %3, i32 0, i32 3
51         %5 = bitcast <4 x i32> %4 to <16 x i8>
52         %6 = tail call <4 x i32> @llvm.x86.sse41.pmovsxbd(<16 x i8> %5) nounwind readnone
53         %7 = bitcast <4 x i32> %6 to <2 x i64>
54         ret <2 x i64> %7
55 }
56
57 define <2 x i64> @pmovsxwd_1(i64* %p) nounwind readonly {
58 ; X32-LABEL: pmovsxwd_1:
59 ; X32:       ## BB#0: ## %entry
60 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
61 ; X32-NEXT:    pmovsxwd (%eax), %xmm0
62 ; X32-NEXT:    retl
63 ;
64 ; X64-LABEL: pmovsxwd_1:
65 ; X64:       ## BB#0: ## %entry
66 ; X64-NEXT:    pmovsxwd (%rdi), %xmm0
67 ; X64-NEXT:    retq
68 entry:
69         %0 = load i64* %p               ; <i64> [#uses=1]
70         %tmp2 = insertelement <2 x i64> zeroinitializer, i64 %0, i32 0          ; <<2 x i64>> [#uses=1]
71         %1 = bitcast <2 x i64> %tmp2 to <8 x i16>               ; <<8 x i16>> [#uses=1]
72         %2 = tail call <4 x i32> @llvm.x86.sse41.pmovsxwd(<8 x i16> %1) nounwind readnone               ; <<4 x i32>> [#uses=1]
73         %3 = bitcast <4 x i32> %2 to <2 x i64>          ; <<2 x i64>> [#uses=1]
74         ret <2 x i64> %3
75 }
76
77 define <2 x i64> @pmovzxbq_1() nounwind {
78 ; X32-LABEL: pmovzxbq_1:
79 ; X32:       ## BB#0: ## %entry
80 ; X32-NEXT:    movl L_g16$non_lazy_ptr, %eax
81 ; X32-NEXT:    pmovzxbq (%eax), %xmm0
82 ; X32-NEXT:    retl
83 ;
84 ; X64-LABEL: pmovzxbq_1:
85 ; X64:       ## BB#0: ## %entry
86 ; X64-NEXT:    movq _g16@{{.*}}(%rip), %rax
87 ; X64-NEXT:    pmovzxbq (%rax), %xmm0
88 ; X64-NEXT:    retq
89 entry:
90         %0 = load i16* @g16, align 2            ; <i16> [#uses=1]
91         %1 = insertelement <8 x i16> undef, i16 %0, i32 0               ; <<8 x i16>> [#uses=1]
92         %2 = bitcast <8 x i16> %1 to <16 x i8>          ; <<16 x i8>> [#uses=1]
93         %3 = tail call <2 x i64> @llvm.x86.sse41.pmovzxbq(<16 x i8> %2) nounwind readnone               ; <<2 x i64>> [#uses=1]
94         ret <2 x i64> %3
95 }
96
97 declare <4 x i32> @llvm.x86.sse41.pmovsxbd(<16 x i8>) nounwind readnone
98 declare <4 x i32> @llvm.x86.sse41.pmovsxwd(<8 x i16>) nounwind readnone
99 declare <2 x i64> @llvm.x86.sse41.pmovzxbq(<16 x i8>) nounwind readnone
100
101 define i32 @extractps_1(<4 x float> %v) nounwind {
102 ; X32-LABEL: extractps_1:
103 ; X32:       ## BB#0:
104 ; X32-NEXT:    extractps $3, %xmm0, %eax
105 ; X32-NEXT:    retl
106 ;
107 ; X64-LABEL: extractps_1:
108 ; X64:       ## BB#0:
109 ; X64-NEXT:    extractps $3, %xmm0, %eax
110 ; X64-NEXT:    retq
111   %s = extractelement <4 x float> %v, i32 3
112   %i = bitcast float %s to i32
113   ret i32 %i
114 }
115 define i32 @extractps_2(<4 x float> %v) nounwind {
116 ; X32-LABEL: extractps_2:
117 ; X32:       ## BB#0:
118 ; X32-NEXT:    extractps $3, %xmm0, %eax
119 ; X32-NEXT:    retl
120 ;
121 ; X64-LABEL: extractps_2:
122 ; X64:       ## BB#0:
123 ; X64-NEXT:    extractps $3, %xmm0, %eax
124 ; X64-NEXT:    retq
125   %t = bitcast <4 x float> %v to <4 x i32>
126   %s = extractelement <4 x i32> %t, i32 3
127   ret i32 %s
128 }
129
130
131 ; The non-store form of extractps puts its result into a GPR.
132 ; This makes it suitable for an extract from a <4 x float> that
133 ; is bitcasted to i32, but unsuitable for much of anything else.
134
135 define float @ext_1(<4 x float> %v) nounwind {
136 ; X32-LABEL: ext_1:
137 ; X32:       ## BB#0:
138 ; X32-NEXT:    pushl %eax
139 ; X32-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
140 ; X32-NEXT:    addss LCPI7_0, %xmm0
141 ; X32-NEXT:    movss %xmm0, (%esp)
142 ; X32-NEXT:    flds (%esp)
143 ; X32-NEXT:    popl %eax
144 ; X32-NEXT:    retl
145 ;
146 ; X64-LABEL: ext_1:
147 ; X64:       ## BB#0:
148 ; X64-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
149 ; X64-NEXT:    addss {{.*}}(%rip), %xmm0
150 ; X64-NEXT:    retq
151   %s = extractelement <4 x float> %v, i32 3
152   %t = fadd float %s, 1.0
153   ret float %t
154 }
155 define float @ext_2(<4 x float> %v) nounwind {
156 ; X32-LABEL: ext_2:
157 ; X32:       ## BB#0:
158 ; X32-NEXT:    pushl %eax
159 ; X32-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
160 ; X32-NEXT:    movss %xmm0, (%esp)
161 ; X32-NEXT:    flds (%esp)
162 ; X32-NEXT:    popl %eax
163 ; X32-NEXT:    retl
164 ;
165 ; X64-LABEL: ext_2:
166 ; X64:       ## BB#0:
167 ; X64-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
168 ; X64-NEXT:    retq
169   %s = extractelement <4 x float> %v, i32 3
170   ret float %s
171 }
172 define i32 @ext_3(<4 x i32> %v) nounwind {
173 ; X32-LABEL: ext_3:
174 ; X32:       ## BB#0:
175 ; X32-NEXT:    pextrd $3, %xmm0, %eax
176 ; X32-NEXT:    retl
177 ;
178 ; X64-LABEL: ext_3:
179 ; X64:       ## BB#0:
180 ; X64-NEXT:    pextrd $3, %xmm0, %eax
181 ; X64-NEXT:    retq
182   %i = extractelement <4 x i32> %v, i32 3
183   ret i32 %i
184 }
185
186 define <4 x float> @insertps_1(<4 x float> %t1, <4 x float> %t2) nounwind {
187 ; X32-LABEL: insertps_1:
188 ; X32:       ## BB#0:
189 ; X32-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1,2,3]
190 ; X32-NEXT:    retl
191 ;
192 ; X64-LABEL: insertps_1:
193 ; X64:       ## BB#0:
194 ; X64-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1,2,3]
195 ; X64-NEXT:    retq
196   %tmp1 = call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %t1, <4 x float> %t2, i32 1) nounwind readnone
197   ret <4 x float> %tmp1
198 }
199
200 declare <4 x float> @llvm.x86.sse41.insertps(<4 x float>, <4 x float>, i32) nounwind readnone
201
202 define <4 x float> @insertps_2(<4 x float> %t1, float %t2) nounwind {
203 ; X32-LABEL: insertps_2:
204 ; X32:       ## BB#0:
205 ; X32-NEXT:    insertps $0, {{[0-9]+}}(%esp), %xmm0
206 ; X32-NEXT:    retl
207 ;
208 ; X64-LABEL: insertps_2:
209 ; X64:       ## BB#0:
210 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
211 ; X64-NEXT:    retq
212   %tmp1 = insertelement <4 x float> %t1, float %t2, i32 0
213   ret <4 x float> %tmp1
214 }
215 define <4 x float> @insertps_3(<4 x float> %t1, <4 x float> %t2) nounwind {
216 ; X32-LABEL: insertps_3:
217 ; X32:       ## BB#0:
218 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
219 ; X32-NEXT:    retl
220 ;
221 ; X64-LABEL: insertps_3:
222 ; X64:       ## BB#0:
223 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
224 ; X64-NEXT:    retq
225   %tmp2 = extractelement <4 x float> %t2, i32 0
226   %tmp1 = insertelement <4 x float> %t1, float %tmp2, i32 0
227   ret <4 x float> %tmp1
228 }
229
230 define i32 @ptestz_1(<2 x i64> %t1, <2 x i64> %t2) nounwind {
231 ; X32-LABEL: ptestz_1:
232 ; X32:       ## BB#0:
233 ; X32-NEXT:    ptest %xmm1, %xmm0
234 ; X32-NEXT:    sete %al
235 ; X32-NEXT:    movzbl %al, %eax
236 ; X32-NEXT:    retl
237 ;
238 ; X64-LABEL: ptestz_1:
239 ; X64:       ## BB#0:
240 ; X64-NEXT:    ptest %xmm1, %xmm0
241 ; X64-NEXT:    sete %al
242 ; X64-NEXT:    movzbl %al, %eax
243 ; X64-NEXT:    retq
244   %tmp1 = call i32 @llvm.x86.sse41.ptestz(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
245   ret i32 %tmp1
246 }
247
248 define i32 @ptestz_2(<2 x i64> %t1, <2 x i64> %t2) nounwind {
249 ; X32-LABEL: ptestz_2:
250 ; X32:       ## BB#0:
251 ; X32-NEXT:    ptest %xmm1, %xmm0
252 ; X32-NEXT:    sbbl %eax, %eax
253 ; X32-NEXT:    andl $1, %eax
254 ; X32-NEXT:    retl
255 ;
256 ; X64-LABEL: ptestz_2:
257 ; X64:       ## BB#0:
258 ; X64-NEXT:    ptest %xmm1, %xmm0
259 ; X64-NEXT:    sbbl %eax, %eax
260 ; X64-NEXT:    andl $1, %eax
261 ; X64-NEXT:    retq
262   %tmp1 = call i32 @llvm.x86.sse41.ptestc(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
263   ret i32 %tmp1
264 }
265
266 define i32 @ptestz_3(<2 x i64> %t1, <2 x i64> %t2) nounwind {
267 ; X32-LABEL: ptestz_3:
268 ; X32:       ## BB#0:
269 ; X32-NEXT:    ptest %xmm1, %xmm0
270 ; X32-NEXT:    seta %al
271 ; X32-NEXT:    movzbl %al, %eax
272 ; X32-NEXT:    retl
273 ;
274 ; X64-LABEL: ptestz_3:
275 ; X64:       ## BB#0:
276 ; X64-NEXT:    ptest %xmm1, %xmm0
277 ; X64-NEXT:    seta %al
278 ; X64-NEXT:    movzbl %al, %eax
279 ; X64-NEXT:    retq
280   %tmp1 = call i32 @llvm.x86.sse41.ptestnzc(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
281   ret i32 %tmp1
282 }
283
284
285 declare i32 @llvm.x86.sse41.ptestz(<2 x i64>, <2 x i64>) nounwind readnone
286 declare i32 @llvm.x86.sse41.ptestc(<2 x i64>, <2 x i64>) nounwind readnone
287 declare i32 @llvm.x86.sse41.ptestnzc(<2 x i64>, <2 x i64>) nounwind readnone
288
289 ; This used to compile to insertps $0  + insertps $16.  insertps $0 is always
290 ; pointless.
291 define <2 x float> @buildvector(<2 x float> %A, <2 x float> %B) nounwind  {
292 ; X32-LABEL: buildvector:
293 ; X32:       ## BB#0: ## %entry
294 ; X32-NEXT:    movaps %xmm0, %xmm2
295 ; X32-NEXT:    shufps {{.*#+}} xmm2 = xmm2[1,1,2,3]
296 ; X32-NEXT:    addss %xmm1, %xmm0
297 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1,2,3]
298 ; X32-NEXT:    addss %xmm2, %xmm1
299 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[2,3]
300 ; X32-NEXT:    retl
301 ;
302 ; X64-LABEL: buildvector:
303 ; X64:       ## BB#0: ## %entry
304 ; X64-NEXT:    movaps %xmm0, %xmm2
305 ; X64-NEXT:    shufps {{.*#+}} xmm2 = xmm2[1,1,2,3]
306 ; X64-NEXT:    addss %xmm1, %xmm0
307 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1,2,3]
308 ; X64-NEXT:    addss %xmm2, %xmm1
309 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[2,3]
310 ; X64-NEXT:    retq
311 entry:
312   %tmp7 = extractelement <2 x float> %A, i32 0
313   %tmp5 = extractelement <2 x float> %A, i32 1
314   %tmp3 = extractelement <2 x float> %B, i32 0
315   %tmp1 = extractelement <2 x float> %B, i32 1
316   %add.r = fadd float %tmp7, %tmp3
317   %add.i = fadd float %tmp5, %tmp1
318   %tmp11 = insertelement <2 x float> undef, float %add.r, i32 0
319   %tmp9 = insertelement <2 x float> %tmp11, float %add.i, i32 1
320   ret <2 x float> %tmp9
321 }
322
323 define <4 x float> @insertps_from_shufflevector_1(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
324 ; X32-LABEL: insertps_from_shufflevector_1:
325 ; X32:       ## BB#0: ## %entry
326 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
327 ; X32-NEXT:    insertps $48, (%eax), %xmm0
328 ; X32-NEXT:    retl
329 ;
330 ; X64-LABEL: insertps_from_shufflevector_1:
331 ; X64:       ## BB#0: ## %entry
332 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
333 ; X64-NEXT:    retq
334 entry:
335   %0 = load <4 x float>* %pb, align 16
336   %vecinit6 = shufflevector <4 x float> %a, <4 x float> %0, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
337   ret <4 x float> %vecinit6
338 }
339
340 define <4 x float> @insertps_from_shufflevector_2(<4 x float> %a, <4 x float> %b) {
341 ; X32-LABEL: insertps_from_shufflevector_2:
342 ; X32:       ## BB#0: ## %entry
343 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[1],xmm0[3]
344 ; X32-NEXT:    retl
345 ;
346 ; X64-LABEL: insertps_from_shufflevector_2:
347 ; X64:       ## BB#0: ## %entry
348 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[1],xmm0[3]
349 ; X64-NEXT:    retq
350 entry:
351   %vecinit6 = shufflevector <4 x float> %a, <4 x float> %b, <4 x i32> <i32 0, i32 1, i32 5, i32 3>
352   ret <4 x float> %vecinit6
353 }
354
355 ; For loading an i32 from memory into an xmm register we use pinsrd
356 ; instead of insertps
357 define <4 x i32> @pinsrd_from_shufflevector_i32(<4 x i32> %a, <4 x i32>* nocapture readonly %pb) {
358 ; X32-LABEL: pinsrd_from_shufflevector_i32:
359 ; X32:       ## BB#0: ## %entry
360 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
361 ; X32-NEXT:    insertps $48, (%eax), %xmm0
362 ; X32-NEXT:    retl
363 ;
364 ; X64-LABEL: pinsrd_from_shufflevector_i32:
365 ; X64:       ## BB#0: ## %entry
366 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
367 ; X64-NEXT:    retq
368 entry:
369   %0 = load <4 x i32>* %pb, align 16
370   %vecinit6 = shufflevector <4 x i32> %a, <4 x i32> %0, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
371   ret <4 x i32> %vecinit6
372 }
373
374 define <4 x i32> @insertps_from_shufflevector_i32_2(<4 x i32> %a, <4 x i32> %b) {
375 ; X32-LABEL: insertps_from_shufflevector_i32_2:
376 ; X32:       ## BB#0: ## %entry
377 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[3],xmm0[2,3]
378 ; X32-NEXT:    retl
379 ;
380 ; X64-LABEL: insertps_from_shufflevector_i32_2:
381 ; X64:       ## BB#0: ## %entry
382 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[3],xmm0[2,3]
383 ; X64-NEXT:    retq
384 entry:
385   %vecinit6 = shufflevector <4 x i32> %a, <4 x i32> %b, <4 x i32> <i32 0, i32 7, i32 2, i32 3>
386   ret <4 x i32> %vecinit6
387 }
388
389 define <4 x float> @insertps_from_load_ins_elt_undef(<4 x float> %a, float* %b) {
390 ; X32-LABEL: insertps_from_load_ins_elt_undef:
391 ; X32:       ## BB#0:
392 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
393 ; X32-NEXT:    insertps $16, (%eax), %xmm0
394 ; X32-NEXT:    retl
395 ;
396 ; X64-LABEL: insertps_from_load_ins_elt_undef:
397 ; X64:       ## BB#0:
398 ; X64-NEXT:    insertps $16, (%rdi), %xmm0
399 ; X64-NEXT:    retq
400   %1 = load float* %b, align 4
401   %2 = insertelement <4 x float> undef, float %1, i32 0
402   %result = shufflevector <4 x float> %a, <4 x float> %2, <4 x i32> <i32 0, i32 4, i32 2, i32 3>
403   ret <4 x float> %result
404 }
405
406 ; TODO: Like on pinsrd_from_shufflevector_i32, remove this mov instr
407 define <4 x i32> @insertps_from_load_ins_elt_undef_i32(<4 x i32> %a, i32* %b) {
408 ; X32-LABEL: insertps_from_load_ins_elt_undef_i32:
409 ; X32:       ## BB#0:
410 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
411 ; X32-NEXT:    movd (%eax), %xmm1
412 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[0],xmm0[3]
413 ; X32-NEXT:    retl
414 ;
415 ; X64-LABEL: insertps_from_load_ins_elt_undef_i32:
416 ; X64:       ## BB#0:
417 ; X64-NEXT:    movd (%rdi), %xmm1
418 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[0],xmm0[3]
419 ; X64-NEXT:    retq
420   %1 = load i32* %b, align 4
421   %2 = insertelement <4 x i32> undef, i32 %1, i32 0
422   %result = shufflevector <4 x i32> %a, <4 x i32> %2, <4 x i32> <i32 0, i32 1, i32 4, i32 3>
423   ret <4 x i32> %result
424 }
425
426 ;;;;;; Shuffles optimizable with a single insertps or blend instruction
427 define <4 x float> @shuf_XYZ0(<4 x float> %x, <4 x float> %a) {
428 ; X32-LABEL: shuf_XYZ0:
429 ; X32:       ## BB#0:
430 ; X32-NEXT:    xorps %xmm1, %xmm1
431 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[3]
432 ; X32-NEXT:    retl
433 ;
434 ; X64-LABEL: shuf_XYZ0:
435 ; X64:       ## BB#0:
436 ; X64-NEXT:    xorps %xmm1, %xmm1
437 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[3]
438 ; X64-NEXT:    retq
439   %vecext = extractelement <4 x float> %x, i32 0
440   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
441   %vecext1 = extractelement <4 x float> %x, i32 1
442   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
443   %vecext3 = extractelement <4 x float> %x, i32 2
444   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext3, i32 2
445   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
446   ret <4 x float> %vecinit5
447 }
448
449 define <4 x float> @shuf_XY00(<4 x float> %x, <4 x float> %a) {
450 ; X32-LABEL: shuf_XY00:
451 ; X32:       ## BB#0:
452 ; X32-NEXT:    movq %xmm0, %xmm0
453 ; X32-NEXT:    retl
454 ;
455 ; X64-LABEL: shuf_XY00:
456 ; X64:       ## BB#0:
457 ; X64-NEXT:    movq %xmm0, %xmm0
458 ; X64-NEXT:    retq
459   %vecext = extractelement <4 x float> %x, i32 0
460   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
461   %vecext1 = extractelement <4 x float> %x, i32 1
462   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
463   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.0, i32 2
464   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.0, i32 3
465   ret <4 x float> %vecinit4
466 }
467
468 define <4 x float> @shuf_XYY0(<4 x float> %x, <4 x float> %a) {
469 ; X32-LABEL: shuf_XYY0:
470 ; X32:       ## BB#0:
471 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
472 ; X32-NEXT:    retl
473 ;
474 ; X64-LABEL: shuf_XYY0:
475 ; X64:       ## BB#0:
476 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
477 ; X64-NEXT:    retq
478   %vecext = extractelement <4 x float> %x, i32 0
479   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
480   %vecext1 = extractelement <4 x float> %x, i32 1
481   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
482   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext1, i32 2
483   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
484   ret <4 x float> %vecinit5
485 }
486
487 define <4 x float> @shuf_XYW0(<4 x float> %x, <4 x float> %a) {
488 ; X32-LABEL: shuf_XYW0:
489 ; X32:       ## BB#0:
490 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
491 ; X32-NEXT:    retl
492 ;
493 ; X64-LABEL: shuf_XYW0:
494 ; X64:       ## BB#0:
495 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
496 ; X64-NEXT:    retq
497   %vecext = extractelement <4 x float> %x, i32 0
498   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
499   %vecext1 = extractelement <4 x float> %x, i32 1
500   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
501   %vecext2 = extractelement <4 x float> %x, i32 3
502   %vecinit3 = insertelement <4 x float> %vecinit2, float %vecext2, i32 2
503   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.0, i32 3
504   ret <4 x float> %vecinit4
505 }
506
507 define <4 x float> @shuf_W00W(<4 x float> %x, <4 x float> %a) {
508 ; X32-LABEL: shuf_W00W:
509 ; X32:       ## BB#0:
510 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
511 ; X32-NEXT:    retl
512 ;
513 ; X64-LABEL: shuf_W00W:
514 ; X64:       ## BB#0:
515 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
516 ; X64-NEXT:    retq
517   %vecext = extractelement <4 x float> %x, i32 3
518   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
519   %vecinit2 = insertelement <4 x float> %vecinit, float 0.0, i32 1
520   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.0, i32 2
521   %vecinit4 = insertelement <4 x float> %vecinit3, float %vecext, i32 3
522   ret <4 x float> %vecinit4
523 }
524
525 define <4 x float> @shuf_X00A(<4 x float> %x, <4 x float> %a) {
526 ; X32-LABEL: shuf_X00A:
527 ; X32:       ## BB#0:
528 ; X32-NEXT:    xorps %xmm2, %xmm2
529 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
530 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
531 ; X32-NEXT:    retl
532 ;
533 ; X64-LABEL: shuf_X00A:
534 ; X64:       ## BB#0:
535 ; X64-NEXT:    xorps %xmm2, %xmm2
536 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
537 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
538 ; X64-NEXT:    retq
539   %vecext = extractelement <4 x float> %x, i32 0
540   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
541   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
542   %vecinit2 = insertelement <4 x float> %vecinit1, float 0.0, i32 2
543   %vecinit4 = shufflevector <4 x float> %vecinit2, <4 x float> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
544   ret <4 x float> %vecinit4
545 }
546
547 define <4 x float> @shuf_X00X(<4 x float> %x, <4 x float> %a) {
548 ; X32-LABEL: shuf_X00X:
549 ; X32:       ## BB#0:
550 ; X32-NEXT:    xorps %xmm1, %xmm1
551 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
552 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
553 ; X32-NEXT:    movaps %xmm1, %xmm0
554 ; X32-NEXT:    retl
555 ;
556 ; X64-LABEL: shuf_X00X:
557 ; X64:       ## BB#0:
558 ; X64-NEXT:    xorps %xmm1, %xmm1
559 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
560 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
561 ; X64-NEXT:    movaps %xmm1, %xmm0
562 ; X64-NEXT:    retq
563   %vecext = extractelement <4 x float> %x, i32 0
564   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
565   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
566   %vecinit2 = insertelement <4 x float> %vecinit1, float 0.0, i32 2
567   %vecinit4 = shufflevector <4 x float> %vecinit2, <4 x float> %x, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
568   ret <4 x float> %vecinit4
569 }
570
571 define <4 x float> @shuf_X0YC(<4 x float> %x, <4 x float> %a) {
572 ; X32-LABEL: shuf_X0YC:
573 ; X32:       ## BB#0:
574 ; X32-NEXT:    xorps %xmm2, %xmm2
575 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1],xmm0[2,3]
576 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
577 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
578 ; X32-NEXT:    movaps %xmm2, %xmm0
579 ; X32-NEXT:    retl
580 ;
581 ; X64-LABEL: shuf_X0YC:
582 ; X64:       ## BB#0:
583 ; X64-NEXT:    xorps %xmm2, %xmm2
584 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1],xmm0[2,3]
585 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
586 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
587 ; X64-NEXT:    movaps %xmm2, %xmm0
588 ; X64-NEXT:    retq
589   %vecext = extractelement <4 x float> %x, i32 0
590   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
591   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
592   %vecinit3 = shufflevector <4 x float> %vecinit1, <4 x float> %x, <4 x i32> <i32 0, i32 1, i32 5, i32 undef>
593   %vecinit5 = shufflevector <4 x float> %vecinit3, <4 x float> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 6>
594   ret <4 x float> %vecinit5
595 }
596
597 define <4 x i32> @i32_shuf_XYZ0(<4 x i32> %x, <4 x i32> %a) {
598 ; X32-LABEL: i32_shuf_XYZ0:
599 ; X32:       ## BB#0:
600 ; X32-NEXT:    pxor %xmm1, %xmm1
601 ; X32-NEXT:    pblendw {{.*#+}} xmm0 = xmm0[0,1,2,3,4,5],xmm1[6,7]
602 ; X32-NEXT:    retl
603 ;
604 ; X64-LABEL: i32_shuf_XYZ0:
605 ; X64:       ## BB#0:
606 ; X64-NEXT:    pxor %xmm1, %xmm1
607 ; X64-NEXT:    pblendw {{.*#+}} xmm0 = xmm0[0,1,2,3,4,5],xmm1[6,7]
608 ; X64-NEXT:    retq
609   %vecext = extractelement <4 x i32> %x, i32 0
610   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
611   %vecext1 = extractelement <4 x i32> %x, i32 1
612   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
613   %vecext3 = extractelement <4 x i32> %x, i32 2
614   %vecinit4 = insertelement <4 x i32> %vecinit2, i32 %vecext3, i32 2
615   %vecinit5 = insertelement <4 x i32> %vecinit4, i32 0, i32 3
616   ret <4 x i32> %vecinit5
617 }
618
619 define <4 x i32> @i32_shuf_XY00(<4 x i32> %x, <4 x i32> %a) {
620 ; X32-LABEL: i32_shuf_XY00:
621 ; X32:       ## BB#0:
622 ; X32-NEXT:    movq %xmm0, %xmm0
623 ; X32-NEXT:    retl
624 ;
625 ; X64-LABEL: i32_shuf_XY00:
626 ; X64:       ## BB#0:
627 ; X64-NEXT:    movq %xmm0, %xmm0
628 ; X64-NEXT:    retq
629   %vecext = extractelement <4 x i32> %x, i32 0
630   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
631   %vecext1 = extractelement <4 x i32> %x, i32 1
632   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
633   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 0, i32 2
634   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 0, i32 3
635   ret <4 x i32> %vecinit4
636 }
637
638 define <4 x i32> @i32_shuf_XYY0(<4 x i32> %x, <4 x i32> %a) {
639 ; X32-LABEL: i32_shuf_XYY0:
640 ; X32:       ## BB#0:
641 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
642 ; X32-NEXT:    retl
643 ;
644 ; X64-LABEL: i32_shuf_XYY0:
645 ; X64:       ## BB#0:
646 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
647 ; X64-NEXT:    retq
648   %vecext = extractelement <4 x i32> %x, i32 0
649   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
650   %vecext1 = extractelement <4 x i32> %x, i32 1
651   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
652   %vecinit4 = insertelement <4 x i32> %vecinit2, i32 %vecext1, i32 2
653   %vecinit5 = insertelement <4 x i32> %vecinit4, i32 0, i32 3
654   ret <4 x i32> %vecinit5
655 }
656
657 define <4 x i32> @i32_shuf_XYW0(<4 x i32> %x, <4 x i32> %a) {
658 ; X32-LABEL: i32_shuf_XYW0:
659 ; X32:       ## BB#0:
660 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
661 ; X32-NEXT:    retl
662 ;
663 ; X64-LABEL: i32_shuf_XYW0:
664 ; X64:       ## BB#0:
665 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
666 ; X64-NEXT:    retq
667   %vecext = extractelement <4 x i32> %x, i32 0
668   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
669   %vecext1 = extractelement <4 x i32> %x, i32 1
670   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
671   %vecext2 = extractelement <4 x i32> %x, i32 3
672   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 %vecext2, i32 2
673   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 0, i32 3
674   ret <4 x i32> %vecinit4
675 }
676
677 define <4 x i32> @i32_shuf_W00W(<4 x i32> %x, <4 x i32> %a) {
678 ; X32-LABEL: i32_shuf_W00W:
679 ; X32:       ## BB#0:
680 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
681 ; X32-NEXT:    retl
682 ;
683 ; X64-LABEL: i32_shuf_W00W:
684 ; X64:       ## BB#0:
685 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
686 ; X64-NEXT:    retq
687   %vecext = extractelement <4 x i32> %x, i32 3
688   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
689   %vecinit2 = insertelement <4 x i32> %vecinit, i32 0, i32 1
690   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 0, i32 2
691   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 %vecext, i32 3
692   ret <4 x i32> %vecinit4
693 }
694
695 define <4 x i32> @i32_shuf_X00A(<4 x i32> %x, <4 x i32> %a) {
696 ; X32-LABEL: i32_shuf_X00A:
697 ; X32:       ## BB#0:
698 ; X32-NEXT:    xorps %xmm2, %xmm2
699 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
700 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
701 ; X32-NEXT:    retl
702 ;
703 ; X64-LABEL: i32_shuf_X00A:
704 ; X64:       ## BB#0:
705 ; X64-NEXT:    xorps %xmm2, %xmm2
706 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
707 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
708 ; X64-NEXT:    retq
709   %vecext = extractelement <4 x i32> %x, i32 0
710   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
711   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
712   %vecinit2 = insertelement <4 x i32> %vecinit1, i32 0, i32 2
713   %vecinit4 = shufflevector <4 x i32> %vecinit2, <4 x i32> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
714   ret <4 x i32> %vecinit4
715 }
716
717 define <4 x i32> @i32_shuf_X00X(<4 x i32> %x, <4 x i32> %a) {
718 ; X32-LABEL: i32_shuf_X00X:
719 ; X32:       ## BB#0:
720 ; X32-NEXT:    xorps %xmm1, %xmm1
721 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
722 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
723 ; X32-NEXT:    movaps %xmm1, %xmm0
724 ; X32-NEXT:    retl
725 ;
726 ; X64-LABEL: i32_shuf_X00X:
727 ; X64:       ## BB#0:
728 ; X64-NEXT:    xorps %xmm1, %xmm1
729 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
730 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
731 ; X64-NEXT:    movaps %xmm1, %xmm0
732 ; X64-NEXT:    retq
733   %vecext = extractelement <4 x i32> %x, i32 0
734   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
735   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
736   %vecinit2 = insertelement <4 x i32> %vecinit1, i32 0, i32 2
737   %vecinit4 = shufflevector <4 x i32> %vecinit2, <4 x i32> %x, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
738   ret <4 x i32> %vecinit4
739 }
740
741 define <4 x i32> @i32_shuf_X0YC(<4 x i32> %x, <4 x i32> %a) {
742 ; X32-LABEL: i32_shuf_X0YC:
743 ; X32:       ## BB#0:
744 ; X32-NEXT:    pmovzxdq %xmm0, %xmm2
745 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
746 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
747 ; X32-NEXT:    movaps %xmm2, %xmm0
748 ; X32-NEXT:    retl
749 ;
750 ; X64-LABEL: i32_shuf_X0YC:
751 ; X64:       ## BB#0:
752 ; X64-NEXT:    pmovzxdq %xmm0, %xmm2
753 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
754 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
755 ; X64-NEXT:    movaps %xmm2, %xmm0
756 ; X64-NEXT:    retq
757   %vecext = extractelement <4 x i32> %x, i32 0
758   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
759   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
760   %vecinit3 = shufflevector <4 x i32> %vecinit1, <4 x i32> %x, <4 x i32> <i32 0, i32 1, i32 5, i32 undef>
761   %vecinit5 = shufflevector <4 x i32> %vecinit3, <4 x i32> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 6>
762   ret <4 x i32> %vecinit5
763 }
764
765 ;; Test for a bug in the first implementation of LowerBuildVectorv4x32
766 define < 4 x float> @test_insertps_no_undef(<4 x float> %x) {
767 ; X32-LABEL: test_insertps_no_undef:
768 ; X32:       ## BB#0:
769 ; X32-NEXT:    xorps %xmm1, %xmm1
770 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0,1,2],xmm1[3]
771 ; X32-NEXT:    maxps %xmm1, %xmm0
772 ; X32-NEXT:    retl
773 ;
774 ; X64-LABEL: test_insertps_no_undef:
775 ; X64:       ## BB#0:
776 ; X64-NEXT:    xorps %xmm1, %xmm1
777 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0,1,2],xmm1[3]
778 ; X64-NEXT:    maxps %xmm1, %xmm0
779 ; X64-NEXT:    retq
780   %vecext = extractelement <4 x float> %x, i32 0
781   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
782   %vecext1 = extractelement <4 x float> %x, i32 1
783   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
784   %vecext3 = extractelement <4 x float> %x, i32 2
785   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext3, i32 2
786   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
787   %mask = fcmp olt <4 x float> %vecinit5, %x
788   %res = select  <4 x i1> %mask, <4 x float> %x, <4 x float>%vecinit5
789   ret <4 x float> %res
790 }
791
792 define <8 x i16> @blendvb_fallback(<8 x i1> %mask, <8 x i16> %x, <8 x i16> %y) {
793 ; X32-LABEL: blendvb_fallback:
794 ; X32:       ## BB#0:
795 ; X32-NEXT:    psllw $15, %xmm0
796 ; X32-NEXT:    psraw $15, %xmm0
797 ; X32-NEXT:    pblendvb %xmm1, %xmm2
798 ; X32-NEXT:    movdqa %xmm2, %xmm0
799 ; X32-NEXT:    retl
800 ;
801 ; X64-LABEL: blendvb_fallback:
802 ; X64:       ## BB#0:
803 ; X64-NEXT:    psllw $15, %xmm0
804 ; X64-NEXT:    psraw $15, %xmm0
805 ; X64-NEXT:    pblendvb %xmm1, %xmm2
806 ; X64-NEXT:    movdqa %xmm2, %xmm0
807 ; X64-NEXT:    retq
808   %ret = select <8 x i1> %mask, <8 x i16> %x, <8 x i16> %y
809   ret <8 x i16> %ret
810 }
811
812 ; On X32, account for the argument's move to registers
813 define <4 x float> @insertps_from_vector_load(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
814 ; X32-LABEL: insertps_from_vector_load:
815 ; X32:       ## BB#0:
816 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
817 ; X32-NEXT:    insertps $48, (%eax), %xmm0
818 ; X32-NEXT:    retl
819 ;
820 ; X64-LABEL: insertps_from_vector_load:
821 ; X64:       ## BB#0:
822 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
823 ; X64-NEXT:    retq
824   %1 = load <4 x float>* %pb, align 16
825   %2 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %1, i32 48)
826   ret <4 x float> %2
827 }
828
829 ;; Use a non-zero CountS for insertps
830 ;; Try to match a bit more of the instr, since we need the load's offset.
831 define <4 x float> @insertps_from_vector_load_offset(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
832 ; X32-LABEL: insertps_from_vector_load_offset:
833 ; X32:       ## BB#0:
834 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
835 ; X32-NEXT:    insertps $96, 4(%eax), %xmm0
836 ; X32-NEXT:    retl
837 ;
838 ; X64-LABEL: insertps_from_vector_load_offset:
839 ; X64:       ## BB#0:
840 ; X64-NEXT:    insertps $96, 4(%rdi), %xmm0
841 ; X64-NEXT:    retq
842   %1 = load <4 x float>* %pb, align 16
843   %2 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %1, i32 96)
844   ret <4 x float> %2
845 }
846
847 ;; Try to match a bit more of the instr, since we need the load's offset.
848 define <4 x float> @insertps_from_vector_load_offset_2(<4 x float> %a, <4 x float>* nocapture readonly %pb, i64 %index) {
849 ; X32-LABEL: insertps_from_vector_load_offset_2:
850 ; X32:       ## BB#0:
851 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
852 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
853 ; X32-NEXT:    shll $4, %ecx
854 ; X32-NEXT:    insertps $-64, 12(%eax,%ecx), %xmm0
855 ; X32-NEXT:    retl
856 ;
857 ; X64-LABEL: insertps_from_vector_load_offset_2:
858 ; X64:       ## BB#0:
859 ; X64-NEXT:    shlq $4, %rsi
860 ; X64-NEXT:    insertps $-64, 12(%rdi,%rsi), %xmm0
861 ; X64-NEXT:    retq
862   %1 = getelementptr inbounds <4 x float>* %pb, i64 %index
863   %2 = load <4 x float>* %1, align 16
864   %3 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %2, i32 192)
865   ret <4 x float> %3
866 }
867
868 define <4 x float> @insertps_from_broadcast_loadf32(<4 x float> %a, float* nocapture readonly %fb, i64 %index) {
869 ; X32-LABEL: insertps_from_broadcast_loadf32:
870 ; X32:       ## BB#0:
871 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
872 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
873 ; X32-NEXT:    movss (%ecx,%eax,4), %xmm1
874 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
875 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
876 ; X32-NEXT:    retl
877 ;
878 ; X64-LABEL: insertps_from_broadcast_loadf32:
879 ; X64:       ## BB#0:
880 ; X64-NEXT:    movss (%rdi,%rsi,4), %xmm1
881 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
882 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
883 ; X64-NEXT:    retq
884   %1 = getelementptr inbounds float* %fb, i64 %index
885   %2 = load float* %1, align 4
886   %3 = insertelement <4 x float> undef, float %2, i32 0
887   %4 = insertelement <4 x float> %3, float %2, i32 1
888   %5 = insertelement <4 x float> %4, float %2, i32 2
889   %6 = insertelement <4 x float> %5, float %2, i32 3
890   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
891   ret <4 x float> %7
892 }
893
894 define <4 x float> @insertps_from_broadcast_loadv4f32(<4 x float> %a, <4 x float>* nocapture readonly %b) {
895 ; X32-LABEL: insertps_from_broadcast_loadv4f32:
896 ; X32:       ## BB#0:
897 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
898 ; X32-NEXT:    movups (%eax), %xmm1
899 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
900 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
901 ; X32-NEXT:    retl
902 ;
903 ; X64-LABEL: insertps_from_broadcast_loadv4f32:
904 ; X64:       ## BB#0:
905 ; X64-NEXT:    movups (%rdi), %xmm1
906 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
907 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
908 ; X64-NEXT:    retq
909   %1 = load <4 x float>* %b, align 4
910   %2 = extractelement <4 x float> %1, i32 0
911   %3 = insertelement <4 x float> undef, float %2, i32 0
912   %4 = insertelement <4 x float> %3, float %2, i32 1
913   %5 = insertelement <4 x float> %4, float %2, i32 2
914   %6 = insertelement <4 x float> %5, float %2, i32 3
915   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
916   ret <4 x float> %7
917 }
918
919 ;; FIXME: We're emitting an extraneous pshufd/vbroadcast.
920 define <4 x float> @insertps_from_broadcast_multiple_use(<4 x float> %a, <4 x float> %b, <4 x float> %c, <4 x float> %d, float* nocapture readonly %fb, i64 %index) {
921 ; X32-LABEL: insertps_from_broadcast_multiple_use:
922 ; X32:       ## BB#0:
923 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
924 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
925 ; X32-NEXT:    movss (%ecx,%eax,4), %xmm4
926 ; X32-NEXT:    shufps {{.*#+}} xmm4 = xmm4[0,0,0,0]
927 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm4[0]
928 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm4[0]
929 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm4[0]
930 ; X32-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
931 ; X32-NEXT:    addps %xmm1, %xmm0
932 ; X32-NEXT:    addps %xmm2, %xmm3
933 ; X32-NEXT:    addps %xmm3, %xmm0
934 ; X32-NEXT:    retl
935 ;
936 ; X64-LABEL: insertps_from_broadcast_multiple_use:
937 ; X64:       ## BB#0:
938 ; X64-NEXT:    movss (%rdi,%rsi,4), %xmm4
939 ; X64-NEXT:    shufps {{.*#+}} xmm4 = xmm4[0,0,0,0]
940 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm4[0]
941 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm4[0]
942 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm4[0]
943 ; X64-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
944 ; X64-NEXT:    addps %xmm1, %xmm0
945 ; X64-NEXT:    addps %xmm2, %xmm3
946 ; X64-NEXT:    addps %xmm3, %xmm0
947 ; X64-NEXT:    retq
948   %1 = getelementptr inbounds float* %fb, i64 %index
949   %2 = load float* %1, align 4
950   %3 = insertelement <4 x float> undef, float %2, i32 0
951   %4 = insertelement <4 x float> %3, float %2, i32 1
952   %5 = insertelement <4 x float> %4, float %2, i32 2
953   %6 = insertelement <4 x float> %5, float %2, i32 3
954   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
955   %8 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %b, <4 x float> %6, i32 48)
956   %9 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %c, <4 x float> %6, i32 48)
957   %10 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %d, <4 x float> %6, i32 48)
958   %11 = fadd <4 x float> %7, %8
959   %12 = fadd <4 x float> %9, %10
960   %13 = fadd <4 x float> %11, %12
961   ret <4 x float> %13
962 }
963
964 define <4 x float> @insertps_with_undefs(<4 x float> %a, float* %b) {
965 ; X32-LABEL: insertps_with_undefs:
966 ; X32:       ## BB#0:
967 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
968 ; X32-NEXT:    movss (%eax), %xmm1
969 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,xmm0[0],xmm1[3]
970 ; X32-NEXT:    movaps %xmm1, %xmm0
971 ; X32-NEXT:    retl
972 ;
973 ; X64-LABEL: insertps_with_undefs:
974 ; X64:       ## BB#0:
975 ; X64-NEXT:    movss (%rdi), %xmm1
976 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,xmm0[0],xmm1[3]
977 ; X64-NEXT:    movaps %xmm1, %xmm0
978 ; X64-NEXT:    retq
979   %1 = load float* %b, align 4
980   %2 = insertelement <4 x float> undef, float %1, i32 0
981   %result = shufflevector <4 x float> %a, <4 x float> %2, <4 x i32> <i32 4, i32 undef, i32 0, i32 7>
982   ret <4 x float> %result
983 }
984
985 ; Test for a bug in X86ISelLowering.cpp:getINSERTPS where we were using
986 ; the destination index to change the load, instead of the source index.
987 define <4 x float> @pr20087(<4 x float> %a, <4 x float> *%ptr) {
988 ; X32-LABEL: pr20087:
989 ; X32:       ## BB#0:
990 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
991 ; X32-NEXT:    insertps $-78, 8(%eax), %xmm0
992 ; X32-NEXT:    retl
993 ;
994 ; X64-LABEL: pr20087:
995 ; X64:       ## BB#0:
996 ; X64-NEXT:    insertps $-78, 8(%rdi), %xmm0
997 ; X64-NEXT:    retq
998   %load = load <4 x float> *%ptr
999   %ret = shufflevector <4 x float> %load, <4 x float> %a, <4 x i32> <i32 4, i32 undef, i32 6, i32 2>
1000   ret <4 x float> %ret
1001 }
1002
1003 ; Edge case for insertps where we end up with a shuffle with mask=<0, 7, -1, -1>
1004 define void @insertps_pr20411(i32* noalias nocapture %RET) #1 {
1005 ; X32-LABEL: insertps_pr20411:
1006 ; X32:       ## BB#0:
1007 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
1008 ; X32-NEXT:    pshufd {{.*#+}} xmm0 = mem[3,1,2,3]
1009 ; X32-NEXT:    insertps $-36, LCPI49_1+12, %xmm0
1010 ; X32-NEXT:    movups %xmm0, (%eax)
1011 ; X32-NEXT:    retl
1012 ;
1013 ; X64-LABEL: insertps_pr20411:
1014 ; X64:       ## BB#0:
1015 ; X64-NEXT:    pshufd {{.*#+}} xmm0 = mem[3,1,2,3]
1016 ; X64-NEXT:    insertps $-36, LCPI49_1+{{.*}}(%rip), %xmm0
1017 ; X64-NEXT:    movups %xmm0, (%rdi)
1018 ; X64-NEXT:    retq
1019   %gather_load = shufflevector <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>, <8 x i32> undef, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
1020   %shuffle109 = shufflevector <4 x i32> <i32 4, i32 5, i32 6, i32 7>, <4 x i32> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 3>  ; 4 5 6 7
1021   %shuffle116 = shufflevector <8 x i32> %gather_load, <8 x i32> undef, <4 x i32> <i32 3, i32 undef, i32 undef, i32 undef> ; 3 x x x
1022   %shuffle117 = shufflevector <4 x i32> %shuffle109, <4 x i32> %shuffle116, <4 x i32> <i32 4, i32 3, i32 undef, i32 undef> ; 3 7 x x
1023   %ptrcast = bitcast i32* %RET to <4 x i32>*
1024   store <4 x i32> %shuffle117, <4 x i32>* %ptrcast, align 4
1025   ret void
1026 }
1027
1028 define <4 x float> @insertps_4(<4 x float> %A, <4 x float> %B) {
1029 ; X32-LABEL: insertps_4:
1030 ; X32:       ## BB#0:
1031 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,xmm1[2],zero
1032 ; X32-NEXT:    retl
1033 ;
1034 ; X64-LABEL: insertps_4:
1035 ; X64:       ## BB#0:
1036 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,xmm1[2],zero
1037 ; X64-NEXT:    retq
1038 entry:
1039   %vecext = extractelement <4 x float> %A, i32 0
1040   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
1041   %vecinit1 = insertelement <4 x float> %vecinit, float 0.000000e+00, i32 1
1042   %vecext2 = extractelement <4 x float> %B, i32 2
1043   %vecinit3 = insertelement <4 x float> %vecinit1, float %vecext2, i32 2
1044   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.000000e+00, i32 3
1045   ret <4 x float> %vecinit4
1046 }
1047
1048 define <4 x float> @insertps_5(<4 x float> %A, <4 x float> %B) {
1049 ; X32-LABEL: insertps_5:
1050 ; X32:       ## BB#0:
1051 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[1],zero,zero
1052 ; X32-NEXT:    retl
1053 ;
1054 ; X64-LABEL: insertps_5:
1055 ; X64:       ## BB#0:
1056 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[1],zero,zero
1057 ; X64-NEXT:    retq
1058 entry:
1059   %vecext = extractelement <4 x float> %A, i32 0
1060   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
1061   %vecext1 = extractelement <4 x float> %B, i32 1
1062   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
1063   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.000000e+00, i32 2
1064   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.000000e+00, i32 3
1065   ret <4 x float> %vecinit4
1066 }
1067
1068 define <4 x float> @insertps_6(<4 x float> %A, <4 x float> %B) {
1069 ; X32-LABEL: insertps_6:
1070 ; X32:       ## BB#0:
1071 ; X32-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1],xmm1[2],zero
1072 ; X32-NEXT:    retl
1073 ;
1074 ; X64-LABEL: insertps_6:
1075 ; X64:       ## BB#0:
1076 ; X64-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1],xmm1[2],zero
1077 ; X64-NEXT:    retq
1078 entry:
1079   %vecext = extractelement <4 x float> %A, i32 1
1080   %vecinit = insertelement <4 x float> <float 0.000000e+00, float undef, float undef, float undef>, float %vecext, i32 1
1081   %vecext1 = extractelement <4 x float> %B, i32 2
1082   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 2
1083   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.000000e+00, i32 3
1084   ret <4 x float> %vecinit3
1085 }
1086
1087 define <4 x float> @insertps_7(<4 x float> %A, <4 x float> %B) {
1088 ; X32-LABEL: insertps_7:
1089 ; X32:       ## BB#0:
1090 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,xmm1[1],zero
1091 ; X32-NEXT:    retl
1092 ;
1093 ; X64-LABEL: insertps_7:
1094 ; X64:       ## BB#0:
1095 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,xmm1[1],zero
1096 ; X64-NEXT:    retq
1097 entry:
1098   %vecext = extractelement <4 x float> %A, i32 0
1099   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
1100   %vecinit1 = insertelement <4 x float> %vecinit, float 0.000000e+00, i32 1
1101   %vecext2 = extractelement <4 x float> %B, i32 1
1102   %vecinit3 = insertelement <4 x float> %vecinit1, float %vecext2, i32 2
1103   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.000000e+00, i32 3
1104   ret <4 x float> %vecinit4
1105 }
1106
1107 define <4 x float> @insertps_8(<4 x float> %A, <4 x float> %B) {
1108 ; X32-LABEL: insertps_8:
1109 ; X32:       ## BB#0:
1110 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],zero,zero
1111 ; X32-NEXT:    retl
1112 ;
1113 ; X64-LABEL: insertps_8:
1114 ; X64:       ## BB#0:
1115 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],zero,zero
1116 ; X64-NEXT:    retq
1117 entry:
1118   %vecext = extractelement <4 x float> %A, i32 0
1119   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
1120   %vecext1 = extractelement <4 x float> %B, i32 0
1121   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
1122   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.000000e+00, i32 2
1123   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.000000e+00, i32 3
1124   ret <4 x float> %vecinit4
1125 }
1126
1127 define <4 x float> @insertps_9(<4 x float> %A, <4 x float> %B) {
1128 ; X32-LABEL: insertps_9:
1129 ; X32:       ## BB#0:
1130 ; X32-NEXT:    insertps {{.*#+}} xmm1 = zero,xmm0[0],xmm1[2],zero
1131 ; X32-NEXT:    movaps %xmm1, %xmm0
1132 ; X32-NEXT:    retl
1133 ;
1134 ; X64-LABEL: insertps_9:
1135 ; X64:       ## BB#0:
1136 ; X64-NEXT:    insertps {{.*#+}} xmm1 = zero,xmm0[0],xmm1[2],zero
1137 ; X64-NEXT:    movaps %xmm1, %xmm0
1138 ; X64-NEXT:    retq
1139 entry:
1140   %vecext = extractelement <4 x float> %A, i32 0
1141   %vecinit = insertelement <4 x float> <float 0.000000e+00, float undef, float undef, float undef>, float %vecext, i32 1
1142   %vecext1 = extractelement <4 x float> %B, i32 2
1143   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 2
1144   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.000000e+00, i32 3
1145   ret <4 x float> %vecinit3
1146 }
1147
1148 define <4 x float> @insertps_10(<4 x float> %A)
1149 {
1150 ; X32-LABEL: insertps_10:
1151 ; X32:       ## BB#0:
1152 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,xmm0[0],zero
1153 ; X32-NEXT:    retl
1154 ;
1155 ; X64-LABEL: insertps_10:
1156 ; X64:       ## BB#0:
1157 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,xmm0[0],zero
1158 ; X64-NEXT:    retq
1159   %vecext = extractelement <4 x float> %A, i32 0
1160   %vecbuild1 = insertelement <4 x float> <float 0.000000e+00, float 0.000000e+00, float 0.000000e+00, float 0.000000e+00>, float %vecext, i32 0
1161   %vecbuild2 = insertelement <4 x float> %vecbuild1, float %vecext, i32 2
1162   ret <4 x float> %vecbuild2
1163 }
1164
1165 define <4 x float> @build_vector_to_shuffle_1(<4 x float> %A) {
1166 ; X32-LABEL: build_vector_to_shuffle_1:
1167 ; X32:       ## BB#0:
1168 ; X32-NEXT:    xorps %xmm1, %xmm1
1169 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm1[0],xmm0[1],xmm1[2],xmm0[3]
1170 ; X32-NEXT:    retl
1171 ;
1172 ; X64-LABEL: build_vector_to_shuffle_1:
1173 ; X64:       ## BB#0:
1174 ; X64-NEXT:    xorps %xmm1, %xmm1
1175 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm1[0],xmm0[1],xmm1[2],xmm0[3]
1176 ; X64-NEXT:    retq
1177 entry:
1178   %vecext = extractelement <4 x float> %A, i32 1
1179   %vecinit = insertelement <4 x float> zeroinitializer, float %vecext, i32 1
1180   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 2
1181   %vecinit3 = shufflevector <4 x float> %vecinit1, <4 x float> %A, <4 x i32> <i32 0, i32 1, i32 2, i32 7>
1182   ret <4 x float> %vecinit3
1183 }
1184
1185 define <4 x float> @build_vector_to_shuffle_2(<4 x float> %A) {
1186 ; X32-LABEL: build_vector_to_shuffle_2:
1187 ; X32:       ## BB#0:
1188 ; X32-NEXT:    xorps %xmm1, %xmm1
1189 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm1[0],xmm0[1],xmm1[2,3]
1190 ; X32-NEXT:    retl
1191 ;
1192 ; X64-LABEL: build_vector_to_shuffle_2:
1193 ; X64:       ## BB#0:
1194 ; X64-NEXT:    xorps %xmm1, %xmm1
1195 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm1[0],xmm0[1],xmm1[2,3]
1196 ; X64-NEXT:    retq
1197 entry:
1198   %vecext = extractelement <4 x float> %A, i32 1
1199   %vecinit = insertelement <4 x float> zeroinitializer, float %vecext, i32 1
1200   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 2
1201   ret <4 x float> %vecinit1
1202 }