1 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE2
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.1 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE41
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE42
4 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX1
5 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX2
6 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX512 --check-prefix=AVX512F
7 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512bw | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX512 --check-prefix=AVX512BW
13 define <2 x i64> @max_gt_v2i64(<2 x i64> %a, <2 x i64> %b) {
14 ; SSE2-LABEL: max_gt_v2i64:
16 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
17 ; SSE2-NEXT: movdqa %xmm1, %xmm3
18 ; SSE2-NEXT: pxor %xmm2, %xmm3
19 ; SSE2-NEXT: pxor %xmm0, %xmm2
20 ; SSE2-NEXT: movdqa %xmm2, %xmm4
21 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
22 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
23 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
24 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
25 ; SSE2-NEXT: pand %xmm5, %xmm2
26 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
27 ; SSE2-NEXT: por %xmm2, %xmm3
28 ; SSE2-NEXT: pand %xmm3, %xmm0
29 ; SSE2-NEXT: pandn %xmm1, %xmm3
30 ; SSE2-NEXT: por %xmm3, %xmm0
33 ; SSE41-LABEL: max_gt_v2i64:
35 ; SSE41-NEXT: movdqa %xmm0, %xmm2
36 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
37 ; SSE41-NEXT: movdqa %xmm1, %xmm3
38 ; SSE41-NEXT: pxor %xmm0, %xmm3
39 ; SSE41-NEXT: pxor %xmm2, %xmm0
40 ; SSE41-NEXT: movdqa %xmm0, %xmm4
41 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
42 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
43 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
44 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
45 ; SSE41-NEXT: pand %xmm5, %xmm3
46 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
47 ; SSE41-NEXT: por %xmm3, %xmm0
48 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
49 ; SSE41-NEXT: movapd %xmm1, %xmm0
52 ; SSE42-LABEL: max_gt_v2i64:
54 ; SSE42-NEXT: movdqa %xmm0, %xmm2
55 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm0
56 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
57 ; SSE42-NEXT: movapd %xmm1, %xmm0
60 ; AVX-LABEL: max_gt_v2i64:
62 ; AVX-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2
63 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
65 %1 = icmp sgt <2 x i64> %a, %b
66 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
70 define <4 x i64> @max_gt_v4i64(<4 x i64> %a, <4 x i64> %b) {
71 ; SSE2-LABEL: max_gt_v4i64:
73 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,0,2147483648,0]
74 ; SSE2-NEXT: movdqa %xmm3, %xmm5
75 ; SSE2-NEXT: pxor %xmm4, %xmm5
76 ; SSE2-NEXT: movdqa %xmm1, %xmm6
77 ; SSE2-NEXT: pxor %xmm4, %xmm6
78 ; SSE2-NEXT: movdqa %xmm6, %xmm7
79 ; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
80 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
81 ; SSE2-NEXT: pcmpeqd %xmm5, %xmm6
82 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm6[1,1,3,3]
83 ; SSE2-NEXT: pand %xmm8, %xmm5
84 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
85 ; SSE2-NEXT: por %xmm5, %xmm6
86 ; SSE2-NEXT: movdqa %xmm2, %xmm5
87 ; SSE2-NEXT: pxor %xmm4, %xmm5
88 ; SSE2-NEXT: pxor %xmm0, %xmm4
89 ; SSE2-NEXT: movdqa %xmm4, %xmm7
90 ; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
91 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
92 ; SSE2-NEXT: pcmpeqd %xmm5, %xmm4
93 ; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
94 ; SSE2-NEXT: pand %xmm8, %xmm4
95 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
96 ; SSE2-NEXT: por %xmm4, %xmm5
97 ; SSE2-NEXT: pand %xmm5, %xmm0
98 ; SSE2-NEXT: pandn %xmm2, %xmm5
99 ; SSE2-NEXT: por %xmm5, %xmm0
100 ; SSE2-NEXT: pand %xmm6, %xmm1
101 ; SSE2-NEXT: pandn %xmm3, %xmm6
102 ; SSE2-NEXT: por %xmm6, %xmm1
105 ; SSE41-LABEL: max_gt_v4i64:
107 ; SSE41-NEXT: movdqa %xmm0, %xmm8
108 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
109 ; SSE41-NEXT: movdqa %xmm3, %xmm5
110 ; SSE41-NEXT: pxor %xmm0, %xmm5
111 ; SSE41-NEXT: movdqa %xmm1, %xmm6
112 ; SSE41-NEXT: pxor %xmm0, %xmm6
113 ; SSE41-NEXT: movdqa %xmm6, %xmm7
114 ; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
115 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
116 ; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
117 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
118 ; SSE41-NEXT: pand %xmm4, %xmm6
119 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
120 ; SSE41-NEXT: por %xmm6, %xmm5
121 ; SSE41-NEXT: movdqa %xmm2, %xmm4
122 ; SSE41-NEXT: pxor %xmm0, %xmm4
123 ; SSE41-NEXT: pxor %xmm8, %xmm0
124 ; SSE41-NEXT: movdqa %xmm0, %xmm6
125 ; SSE41-NEXT: pcmpgtd %xmm4, %xmm6
126 ; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
127 ; SSE41-NEXT: pcmpeqd %xmm4, %xmm0
128 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
129 ; SSE41-NEXT: pand %xmm7, %xmm4
130 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
131 ; SSE41-NEXT: por %xmm4, %xmm0
132 ; SSE41-NEXT: blendvpd %xmm8, %xmm2
133 ; SSE41-NEXT: movdqa %xmm5, %xmm0
134 ; SSE41-NEXT: blendvpd %xmm1, %xmm3
135 ; SSE41-NEXT: movapd %xmm2, %xmm0
136 ; SSE41-NEXT: movapd %xmm3, %xmm1
139 ; SSE42-LABEL: max_gt_v4i64:
141 ; SSE42-NEXT: movdqa %xmm0, %xmm4
142 ; SSE42-NEXT: movdqa %xmm1, %xmm5
143 ; SSE42-NEXT: pcmpgtq %xmm3, %xmm5
144 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0
145 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
146 ; SSE42-NEXT: movdqa %xmm5, %xmm0
147 ; SSE42-NEXT: blendvpd %xmm1, %xmm3
148 ; SSE42-NEXT: movapd %xmm2, %xmm0
149 ; SSE42-NEXT: movapd %xmm3, %xmm1
152 ; AVX1-LABEL: max_gt_v4i64:
154 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
155 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
156 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2
157 ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm3
158 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
159 ; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
162 ; AVX2-LABEL: max_gt_v4i64:
164 ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
165 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
168 ; AVX512-LABEL: max_gt_v4i64:
170 ; AVX512-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
171 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
173 %1 = icmp sgt <4 x i64> %a, %b
174 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
178 define <4 x i32> @max_gt_v4i32(<4 x i32> %a, <4 x i32> %b) {
179 ; SSE2-LABEL: max_gt_v4i32:
181 ; SSE2-NEXT: movdqa %xmm0, %xmm2
182 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm2
183 ; SSE2-NEXT: pand %xmm2, %xmm0
184 ; SSE2-NEXT: pandn %xmm1, %xmm2
185 ; SSE2-NEXT: por %xmm0, %xmm2
186 ; SSE2-NEXT: movdqa %xmm2, %xmm0
189 ; SSE41-LABEL: max_gt_v4i32:
191 ; SSE41-NEXT: pmaxsd %xmm1, %xmm0
194 ; SSE42-LABEL: max_gt_v4i32:
196 ; SSE42-NEXT: pmaxsd %xmm1, %xmm0
199 ; AVX-LABEL: max_gt_v4i32:
201 ; AVX-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0
203 %1 = icmp sgt <4 x i32> %a, %b
204 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
208 define <8 x i32> @max_gt_v8i32(<8 x i32> %a, <8 x i32> %b) {
209 ; SSE2-LABEL: max_gt_v8i32:
211 ; SSE2-NEXT: movdqa %xmm1, %xmm4
212 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
213 ; SSE2-NEXT: movdqa %xmm0, %xmm5
214 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm5
215 ; SSE2-NEXT: pand %xmm5, %xmm0
216 ; SSE2-NEXT: pandn %xmm2, %xmm5
217 ; SSE2-NEXT: por %xmm0, %xmm5
218 ; SSE2-NEXT: pand %xmm4, %xmm1
219 ; SSE2-NEXT: pandn %xmm3, %xmm4
220 ; SSE2-NEXT: por %xmm1, %xmm4
221 ; SSE2-NEXT: movdqa %xmm5, %xmm0
222 ; SSE2-NEXT: movdqa %xmm4, %xmm1
225 ; SSE41-LABEL: max_gt_v8i32:
227 ; SSE41-NEXT: pmaxsd %xmm2, %xmm0
228 ; SSE41-NEXT: pmaxsd %xmm3, %xmm1
231 ; SSE42-LABEL: max_gt_v8i32:
233 ; SSE42-NEXT: pmaxsd %xmm2, %xmm0
234 ; SSE42-NEXT: pmaxsd %xmm3, %xmm1
237 ; AVX1-LABEL: max_gt_v8i32:
239 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
240 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
241 ; AVX1-NEXT: vpmaxsd %xmm2, %xmm3, %xmm2
242 ; AVX1-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0
243 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
246 ; AVX2-LABEL: max_gt_v8i32:
248 ; AVX2-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0
251 ; AVX512-LABEL: max_gt_v8i32:
253 ; AVX512-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0
255 %1 = icmp sgt <8 x i32> %a, %b
256 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
260 define <8 x i16> @max_gt_v8i16(<8 x i16> %a, <8 x i16> %b) {
261 ; SSE-LABEL: max_gt_v8i16:
263 ; SSE-NEXT: pmaxsw %xmm1, %xmm0
266 ; AVX-LABEL: max_gt_v8i16:
268 ; AVX-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0
270 %1 = icmp sgt <8 x i16> %a, %b
271 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
275 define <16 x i16> @max_gt_v16i16(<16 x i16> %a, <16 x i16> %b) {
276 ; SSE-LABEL: max_gt_v16i16:
278 ; SSE-NEXT: pmaxsw %xmm2, %xmm0
279 ; SSE-NEXT: pmaxsw %xmm3, %xmm1
282 ; AVX1-LABEL: max_gt_v16i16:
284 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
285 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
286 ; AVX1-NEXT: vpmaxsw %xmm2, %xmm3, %xmm2
287 ; AVX1-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0
288 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
291 ; AVX2-LABEL: max_gt_v16i16:
293 ; AVX2-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0
296 ; AVX512-LABEL: max_gt_v16i16:
298 ; AVX512-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0
300 %1 = icmp sgt <16 x i16> %a, %b
301 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
305 define <16 x i8> @max_gt_v16i8(<16 x i8> %a, <16 x i8> %b) {
306 ; SSE2-LABEL: max_gt_v16i8:
308 ; SSE2-NEXT: movdqa %xmm0, %xmm2
309 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm2
310 ; SSE2-NEXT: pand %xmm2, %xmm0
311 ; SSE2-NEXT: pandn %xmm1, %xmm2
312 ; SSE2-NEXT: por %xmm0, %xmm2
313 ; SSE2-NEXT: movdqa %xmm2, %xmm0
316 ; SSE41-LABEL: max_gt_v16i8:
318 ; SSE41-NEXT: pmaxsb %xmm1, %xmm0
321 ; SSE42-LABEL: max_gt_v16i8:
323 ; SSE42-NEXT: pmaxsb %xmm1, %xmm0
326 ; AVX-LABEL: max_gt_v16i8:
328 ; AVX-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0
330 %1 = icmp sgt <16 x i8> %a, %b
331 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
335 define <32 x i8> @max_gt_v32i8(<32 x i8> %a, <32 x i8> %b) {
336 ; SSE2-LABEL: max_gt_v32i8:
338 ; SSE2-NEXT: movdqa %xmm1, %xmm4
339 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm4
340 ; SSE2-NEXT: movdqa %xmm0, %xmm5
341 ; SSE2-NEXT: pcmpgtb %xmm2, %xmm5
342 ; SSE2-NEXT: pand %xmm5, %xmm0
343 ; SSE2-NEXT: pandn %xmm2, %xmm5
344 ; SSE2-NEXT: por %xmm0, %xmm5
345 ; SSE2-NEXT: pand %xmm4, %xmm1
346 ; SSE2-NEXT: pandn %xmm3, %xmm4
347 ; SSE2-NEXT: por %xmm1, %xmm4
348 ; SSE2-NEXT: movdqa %xmm5, %xmm0
349 ; SSE2-NEXT: movdqa %xmm4, %xmm1
352 ; SSE41-LABEL: max_gt_v32i8:
354 ; SSE41-NEXT: pmaxsb %xmm2, %xmm0
355 ; SSE41-NEXT: pmaxsb %xmm3, %xmm1
358 ; SSE42-LABEL: max_gt_v32i8:
360 ; SSE42-NEXT: pmaxsb %xmm2, %xmm0
361 ; SSE42-NEXT: pmaxsb %xmm3, %xmm1
364 ; AVX1-LABEL: max_gt_v32i8:
366 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
367 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
368 ; AVX1-NEXT: vpmaxsb %xmm2, %xmm3, %xmm2
369 ; AVX1-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0
370 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
373 ; AVX2-LABEL: max_gt_v32i8:
375 ; AVX2-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0
378 ; AVX512-LABEL: max_gt_v32i8:
380 ; AVX512-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0
382 %1 = icmp sgt <32 x i8> %a, %b
383 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
388 ; Signed Maximum (GE)
391 define <2 x i64> @max_ge_v2i64(<2 x i64> %a, <2 x i64> %b) {
392 ; SSE2-LABEL: max_ge_v2i64:
394 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
395 ; SSE2-NEXT: movdqa %xmm0, %xmm3
396 ; SSE2-NEXT: pxor %xmm2, %xmm3
397 ; SSE2-NEXT: pxor %xmm1, %xmm2
398 ; SSE2-NEXT: movdqa %xmm2, %xmm4
399 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
400 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
401 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
402 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
403 ; SSE2-NEXT: pand %xmm5, %xmm2
404 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
405 ; SSE2-NEXT: por %xmm2, %xmm3
406 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
407 ; SSE2-NEXT: pxor %xmm3, %xmm2
408 ; SSE2-NEXT: pandn %xmm0, %xmm3
409 ; SSE2-NEXT: pandn %xmm1, %xmm2
410 ; SSE2-NEXT: por %xmm3, %xmm2
411 ; SSE2-NEXT: movdqa %xmm2, %xmm0
414 ; SSE41-LABEL: max_ge_v2i64:
416 ; SSE41-NEXT: movdqa %xmm0, %xmm2
417 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
418 ; SSE41-NEXT: movdqa %xmm2, %xmm3
419 ; SSE41-NEXT: pxor %xmm0, %xmm3
420 ; SSE41-NEXT: pxor %xmm1, %xmm0
421 ; SSE41-NEXT: movdqa %xmm0, %xmm4
422 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
423 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
424 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
425 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
426 ; SSE41-NEXT: pand %xmm5, %xmm0
427 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
428 ; SSE41-NEXT: por %xmm0, %xmm3
429 ; SSE41-NEXT: pcmpeqd %xmm0, %xmm0
430 ; SSE41-NEXT: pxor %xmm3, %xmm0
431 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
432 ; SSE41-NEXT: movapd %xmm1, %xmm0
435 ; SSE42-LABEL: max_ge_v2i64:
437 ; SSE42-NEXT: movdqa %xmm0, %xmm2
438 ; SSE42-NEXT: movdqa %xmm1, %xmm3
439 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm3
440 ; SSE42-NEXT: pcmpeqd %xmm0, %xmm0
441 ; SSE42-NEXT: pxor %xmm3, %xmm0
442 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
443 ; SSE42-NEXT: movapd %xmm1, %xmm0
446 ; AVX-LABEL: max_ge_v2i64:
448 ; AVX-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2
449 ; AVX-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
450 ; AVX-NEXT: vpxor %xmm3, %xmm2, %xmm2
451 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
453 %1 = icmp sge <2 x i64> %a, %b
454 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
458 define <4 x i64> @max_ge_v4i64(<4 x i64> %a, <4 x i64> %b) {
459 ; SSE2-LABEL: max_ge_v4i64:
461 ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
462 ; SSE2-NEXT: movdqa %xmm1, %xmm4
463 ; SSE2-NEXT: pxor %xmm7, %xmm4
464 ; SSE2-NEXT: movdqa %xmm3, %xmm5
465 ; SSE2-NEXT: pxor %xmm7, %xmm5
466 ; SSE2-NEXT: movdqa %xmm5, %xmm6
467 ; SSE2-NEXT: pcmpgtd %xmm4, %xmm6
468 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[0,0,2,2]
469 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm5
470 ; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm5[1,1,3,3]
471 ; SSE2-NEXT: pand %xmm8, %xmm4
472 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[1,1,3,3]
473 ; SSE2-NEXT: por %xmm4, %xmm8
474 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
475 ; SSE2-NEXT: movdqa %xmm8, %xmm9
476 ; SSE2-NEXT: pxor %xmm4, %xmm9
477 ; SSE2-NEXT: movdqa %xmm0, %xmm6
478 ; SSE2-NEXT: pxor %xmm7, %xmm6
479 ; SSE2-NEXT: pxor %xmm2, %xmm7
480 ; SSE2-NEXT: movdqa %xmm7, %xmm5
481 ; SSE2-NEXT: pcmpgtd %xmm6, %xmm5
482 ; SSE2-NEXT: pshufd {{.*#+}} xmm10 = xmm5[0,0,2,2]
483 ; SSE2-NEXT: pcmpeqd %xmm6, %xmm7
484 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
485 ; SSE2-NEXT: pand %xmm10, %xmm6
486 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm5[1,1,3,3]
487 ; SSE2-NEXT: por %xmm6, %xmm5
488 ; SSE2-NEXT: pxor %xmm5, %xmm4
489 ; SSE2-NEXT: pandn %xmm0, %xmm5
490 ; SSE2-NEXT: pandn %xmm2, %xmm4
491 ; SSE2-NEXT: por %xmm5, %xmm4
492 ; SSE2-NEXT: pandn %xmm1, %xmm8
493 ; SSE2-NEXT: pandn %xmm3, %xmm9
494 ; SSE2-NEXT: por %xmm8, %xmm9
495 ; SSE2-NEXT: movdqa %xmm4, %xmm0
496 ; SSE2-NEXT: movdqa %xmm9, %xmm1
499 ; SSE41-LABEL: max_ge_v4i64:
501 ; SSE41-NEXT: movdqa %xmm0, %xmm8
502 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
503 ; SSE41-NEXT: movdqa %xmm1, %xmm5
504 ; SSE41-NEXT: pxor %xmm0, %xmm5
505 ; SSE41-NEXT: movdqa %xmm3, %xmm6
506 ; SSE41-NEXT: pxor %xmm0, %xmm6
507 ; SSE41-NEXT: movdqa %xmm6, %xmm7
508 ; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
509 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
510 ; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
511 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
512 ; SSE41-NEXT: pand %xmm4, %xmm6
513 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
514 ; SSE41-NEXT: por %xmm6, %xmm5
515 ; SSE41-NEXT: pcmpeqd %xmm9, %xmm9
516 ; SSE41-NEXT: pxor %xmm9, %xmm5
517 ; SSE41-NEXT: movdqa %xmm8, %xmm6
518 ; SSE41-NEXT: pxor %xmm0, %xmm6
519 ; SSE41-NEXT: pxor %xmm2, %xmm0
520 ; SSE41-NEXT: movdqa %xmm0, %xmm7
521 ; SSE41-NEXT: pcmpgtd %xmm6, %xmm7
522 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
523 ; SSE41-NEXT: pcmpeqd %xmm6, %xmm0
524 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
525 ; SSE41-NEXT: pand %xmm4, %xmm6
526 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
527 ; SSE41-NEXT: por %xmm6, %xmm0
528 ; SSE41-NEXT: pxor %xmm9, %xmm0
529 ; SSE41-NEXT: blendvpd %xmm8, %xmm2
530 ; SSE41-NEXT: movdqa %xmm5, %xmm0
531 ; SSE41-NEXT: blendvpd %xmm1, %xmm3
532 ; SSE41-NEXT: movapd %xmm2, %xmm0
533 ; SSE41-NEXT: movapd %xmm3, %xmm1
536 ; SSE42-LABEL: max_ge_v4i64:
538 ; SSE42-NEXT: movdqa %xmm0, %xmm4
539 ; SSE42-NEXT: movdqa %xmm3, %xmm5
540 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm5
541 ; SSE42-NEXT: pcmpeqd %xmm0, %xmm0
542 ; SSE42-NEXT: pxor %xmm0, %xmm5
543 ; SSE42-NEXT: movdqa %xmm2, %xmm6
544 ; SSE42-NEXT: pcmpgtq %xmm4, %xmm6
545 ; SSE42-NEXT: pxor %xmm6, %xmm0
546 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
547 ; SSE42-NEXT: movdqa %xmm5, %xmm0
548 ; SSE42-NEXT: blendvpd %xmm1, %xmm3
549 ; SSE42-NEXT: movapd %xmm2, %xmm0
550 ; SSE42-NEXT: movapd %xmm3, %xmm1
553 ; AVX1-LABEL: max_ge_v4i64:
555 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
556 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
557 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2
558 ; AVX1-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
559 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2
560 ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm4
561 ; AVX1-NEXT: vpxor %xmm3, %xmm4, %xmm3
562 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
563 ; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
566 ; AVX2-LABEL: max_ge_v4i64:
568 ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
569 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
570 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2
571 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
574 ; AVX512-LABEL: max_ge_v4i64:
576 ; AVX512-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
577 ; AVX512-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
578 ; AVX512-NEXT: vpxor %ymm3, %ymm2, %ymm2
579 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
581 %1 = icmp sge <4 x i64> %a, %b
582 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
586 define <4 x i32> @max_ge_v4i32(<4 x i32> %a, <4 x i32> %b) {
587 ; SSE2-LABEL: max_ge_v4i32:
589 ; SSE2-NEXT: movdqa %xmm1, %xmm3
590 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm3
591 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
592 ; SSE2-NEXT: pxor %xmm3, %xmm2
593 ; SSE2-NEXT: pandn %xmm0, %xmm3
594 ; SSE2-NEXT: pandn %xmm1, %xmm2
595 ; SSE2-NEXT: por %xmm3, %xmm2
596 ; SSE2-NEXT: movdqa %xmm2, %xmm0
599 ; SSE41-LABEL: max_ge_v4i32:
601 ; SSE41-NEXT: pmaxsd %xmm1, %xmm0
604 ; SSE42-LABEL: max_ge_v4i32:
606 ; SSE42-NEXT: pmaxsd %xmm1, %xmm0
609 ; AVX-LABEL: max_ge_v4i32:
611 ; AVX-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0
613 %1 = icmp sge <4 x i32> %a, %b
614 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
618 define <8 x i32> @max_ge_v8i32(<8 x i32> %a, <8 x i32> %b) {
619 ; SSE2-LABEL: max_ge_v8i32:
621 ; SSE2-NEXT: movdqa %xmm3, %xmm6
622 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm6
623 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
624 ; SSE2-NEXT: movdqa %xmm6, %xmm5
625 ; SSE2-NEXT: pxor %xmm4, %xmm5
626 ; SSE2-NEXT: movdqa %xmm2, %xmm7
627 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm7
628 ; SSE2-NEXT: pxor %xmm7, %xmm4
629 ; SSE2-NEXT: pandn %xmm0, %xmm7
630 ; SSE2-NEXT: pandn %xmm2, %xmm4
631 ; SSE2-NEXT: por %xmm7, %xmm4
632 ; SSE2-NEXT: pandn %xmm1, %xmm6
633 ; SSE2-NEXT: pandn %xmm3, %xmm5
634 ; SSE2-NEXT: por %xmm6, %xmm5
635 ; SSE2-NEXT: movdqa %xmm4, %xmm0
636 ; SSE2-NEXT: movdqa %xmm5, %xmm1
639 ; SSE41-LABEL: max_ge_v8i32:
641 ; SSE41-NEXT: pmaxsd %xmm2, %xmm0
642 ; SSE41-NEXT: pmaxsd %xmm3, %xmm1
645 ; SSE42-LABEL: max_ge_v8i32:
647 ; SSE42-NEXT: pmaxsd %xmm2, %xmm0
648 ; SSE42-NEXT: pmaxsd %xmm3, %xmm1
651 ; AVX1-LABEL: max_ge_v8i32:
653 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
654 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
655 ; AVX1-NEXT: vpmaxsd %xmm2, %xmm3, %xmm2
656 ; AVX1-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0
657 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
660 ; AVX2-LABEL: max_ge_v8i32:
662 ; AVX2-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0
665 ; AVX512-LABEL: max_ge_v8i32:
667 ; AVX512-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0
669 %1 = icmp sge <8 x i32> %a, %b
670 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
674 define <8 x i16> @max_ge_v8i16(<8 x i16> %a, <8 x i16> %b) {
675 ; SSE-LABEL: max_ge_v8i16:
677 ; SSE-NEXT: pmaxsw %xmm1, %xmm0
680 ; AVX-LABEL: max_ge_v8i16:
682 ; AVX-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0
684 %1 = icmp sge <8 x i16> %a, %b
685 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
689 define <16 x i16> @max_ge_v16i16(<16 x i16> %a, <16 x i16> %b) {
690 ; SSE-LABEL: max_ge_v16i16:
692 ; SSE-NEXT: pmaxsw %xmm2, %xmm0
693 ; SSE-NEXT: pmaxsw %xmm3, %xmm1
696 ; AVX1-LABEL: max_ge_v16i16:
698 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
699 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
700 ; AVX1-NEXT: vpmaxsw %xmm2, %xmm3, %xmm2
701 ; AVX1-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0
702 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
705 ; AVX2-LABEL: max_ge_v16i16:
707 ; AVX2-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0
710 ; AVX512-LABEL: max_ge_v16i16:
712 ; AVX512-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0
714 %1 = icmp sge <16 x i16> %a, %b
715 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
719 define <16 x i8> @max_ge_v16i8(<16 x i8> %a, <16 x i8> %b) {
720 ; SSE2-LABEL: max_ge_v16i8:
722 ; SSE2-NEXT: movdqa %xmm1, %xmm3
723 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm3
724 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
725 ; SSE2-NEXT: pxor %xmm3, %xmm2
726 ; SSE2-NEXT: pandn %xmm0, %xmm3
727 ; SSE2-NEXT: pandn %xmm1, %xmm2
728 ; SSE2-NEXT: por %xmm3, %xmm2
729 ; SSE2-NEXT: movdqa %xmm2, %xmm0
732 ; SSE41-LABEL: max_ge_v16i8:
734 ; SSE41-NEXT: pmaxsb %xmm1, %xmm0
737 ; SSE42-LABEL: max_ge_v16i8:
739 ; SSE42-NEXT: pmaxsb %xmm1, %xmm0
742 ; AVX-LABEL: max_ge_v16i8:
744 ; AVX-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0
746 %1 = icmp sge <16 x i8> %a, %b
747 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
751 define <32 x i8> @max_ge_v32i8(<32 x i8> %a, <32 x i8> %b) {
752 ; SSE2-LABEL: max_ge_v32i8:
754 ; SSE2-NEXT: movdqa %xmm3, %xmm6
755 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm6
756 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
757 ; SSE2-NEXT: movdqa %xmm6, %xmm5
758 ; SSE2-NEXT: pxor %xmm4, %xmm5
759 ; SSE2-NEXT: movdqa %xmm2, %xmm7
760 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm7
761 ; SSE2-NEXT: pxor %xmm7, %xmm4
762 ; SSE2-NEXT: pandn %xmm0, %xmm7
763 ; SSE2-NEXT: pandn %xmm2, %xmm4
764 ; SSE2-NEXT: por %xmm7, %xmm4
765 ; SSE2-NEXT: pandn %xmm1, %xmm6
766 ; SSE2-NEXT: pandn %xmm3, %xmm5
767 ; SSE2-NEXT: por %xmm6, %xmm5
768 ; SSE2-NEXT: movdqa %xmm4, %xmm0
769 ; SSE2-NEXT: movdqa %xmm5, %xmm1
772 ; SSE41-LABEL: max_ge_v32i8:
774 ; SSE41-NEXT: pmaxsb %xmm2, %xmm0
775 ; SSE41-NEXT: pmaxsb %xmm3, %xmm1
778 ; SSE42-LABEL: max_ge_v32i8:
780 ; SSE42-NEXT: pmaxsb %xmm2, %xmm0
781 ; SSE42-NEXT: pmaxsb %xmm3, %xmm1
784 ; AVX1-LABEL: max_ge_v32i8:
786 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
787 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
788 ; AVX1-NEXT: vpmaxsb %xmm2, %xmm3, %xmm2
789 ; AVX1-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0
790 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
793 ; AVX2-LABEL: max_ge_v32i8:
795 ; AVX2-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0
798 ; AVX512-LABEL: max_ge_v32i8:
800 ; AVX512-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0
802 %1 = icmp sge <32 x i8> %a, %b
803 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
808 ; Signed Minimum (LT)
811 define <2 x i64> @min_lt_v2i64(<2 x i64> %a, <2 x i64> %b) {
812 ; SSE2-LABEL: min_lt_v2i64:
814 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
815 ; SSE2-NEXT: movdqa %xmm0, %xmm3
816 ; SSE2-NEXT: pxor %xmm2, %xmm3
817 ; SSE2-NEXT: pxor %xmm1, %xmm2
818 ; SSE2-NEXT: movdqa %xmm2, %xmm4
819 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
820 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
821 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
822 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
823 ; SSE2-NEXT: pand %xmm5, %xmm2
824 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
825 ; SSE2-NEXT: por %xmm2, %xmm3
826 ; SSE2-NEXT: pand %xmm3, %xmm0
827 ; SSE2-NEXT: pandn %xmm1, %xmm3
828 ; SSE2-NEXT: por %xmm3, %xmm0
831 ; SSE41-LABEL: min_lt_v2i64:
833 ; SSE41-NEXT: movdqa %xmm0, %xmm2
834 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
835 ; SSE41-NEXT: movdqa %xmm2, %xmm3
836 ; SSE41-NEXT: pxor %xmm0, %xmm3
837 ; SSE41-NEXT: pxor %xmm1, %xmm0
838 ; SSE41-NEXT: movdqa %xmm0, %xmm4
839 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
840 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
841 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
842 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
843 ; SSE41-NEXT: pand %xmm5, %xmm3
844 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
845 ; SSE41-NEXT: por %xmm3, %xmm0
846 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
847 ; SSE41-NEXT: movapd %xmm1, %xmm0
850 ; SSE42-LABEL: min_lt_v2i64:
852 ; SSE42-NEXT: movdqa %xmm0, %xmm2
853 ; SSE42-NEXT: movdqa %xmm1, %xmm0
854 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0
855 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
856 ; SSE42-NEXT: movapd %xmm1, %xmm0
859 ; AVX-LABEL: min_lt_v2i64:
861 ; AVX-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2
862 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
864 %1 = icmp slt <2 x i64> %a, %b
865 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
869 define <4 x i64> @min_lt_v4i64(<4 x i64> %a, <4 x i64> %b) {
870 ; SSE2-LABEL: min_lt_v4i64:
872 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,0,2147483648,0]
873 ; SSE2-NEXT: movdqa %xmm1, %xmm5
874 ; SSE2-NEXT: pxor %xmm4, %xmm5
875 ; SSE2-NEXT: movdqa %xmm3, %xmm6
876 ; SSE2-NEXT: pxor %xmm4, %xmm6
877 ; SSE2-NEXT: movdqa %xmm6, %xmm7
878 ; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
879 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
880 ; SSE2-NEXT: pcmpeqd %xmm5, %xmm6
881 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm6[1,1,3,3]
882 ; SSE2-NEXT: pand %xmm8, %xmm5
883 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
884 ; SSE2-NEXT: por %xmm5, %xmm6
885 ; SSE2-NEXT: movdqa %xmm0, %xmm5
886 ; SSE2-NEXT: pxor %xmm4, %xmm5
887 ; SSE2-NEXT: pxor %xmm2, %xmm4
888 ; SSE2-NEXT: movdqa %xmm4, %xmm7
889 ; SSE2-NEXT: pcmpgtd %xmm5, %xmm7
890 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
891 ; SSE2-NEXT: pcmpeqd %xmm5, %xmm4
892 ; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
893 ; SSE2-NEXT: pand %xmm8, %xmm4
894 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
895 ; SSE2-NEXT: por %xmm4, %xmm5
896 ; SSE2-NEXT: pand %xmm5, %xmm0
897 ; SSE2-NEXT: pandn %xmm2, %xmm5
898 ; SSE2-NEXT: por %xmm5, %xmm0
899 ; SSE2-NEXT: pand %xmm6, %xmm1
900 ; SSE2-NEXT: pandn %xmm3, %xmm6
901 ; SSE2-NEXT: por %xmm6, %xmm1
904 ; SSE41-LABEL: min_lt_v4i64:
906 ; SSE41-NEXT: movdqa %xmm0, %xmm8
907 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
908 ; SSE41-NEXT: movdqa %xmm1, %xmm5
909 ; SSE41-NEXT: pxor %xmm0, %xmm5
910 ; SSE41-NEXT: movdqa %xmm3, %xmm6
911 ; SSE41-NEXT: pxor %xmm0, %xmm6
912 ; SSE41-NEXT: movdqa %xmm6, %xmm7
913 ; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
914 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
915 ; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
916 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
917 ; SSE41-NEXT: pand %xmm4, %xmm6
918 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
919 ; SSE41-NEXT: por %xmm6, %xmm5
920 ; SSE41-NEXT: movdqa %xmm8, %xmm4
921 ; SSE41-NEXT: pxor %xmm0, %xmm4
922 ; SSE41-NEXT: pxor %xmm2, %xmm0
923 ; SSE41-NEXT: movdqa %xmm0, %xmm6
924 ; SSE41-NEXT: pcmpgtd %xmm4, %xmm6
925 ; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
926 ; SSE41-NEXT: pcmpeqd %xmm4, %xmm0
927 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
928 ; SSE41-NEXT: pand %xmm7, %xmm4
929 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
930 ; SSE41-NEXT: por %xmm4, %xmm0
931 ; SSE41-NEXT: blendvpd %xmm8, %xmm2
932 ; SSE41-NEXT: movdqa %xmm5, %xmm0
933 ; SSE41-NEXT: blendvpd %xmm1, %xmm3
934 ; SSE41-NEXT: movapd %xmm2, %xmm0
935 ; SSE41-NEXT: movapd %xmm3, %xmm1
938 ; SSE42-LABEL: min_lt_v4i64:
940 ; SSE42-NEXT: movdqa %xmm0, %xmm4
941 ; SSE42-NEXT: movdqa %xmm3, %xmm5
942 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm5
943 ; SSE42-NEXT: movdqa %xmm2, %xmm0
944 ; SSE42-NEXT: pcmpgtq %xmm4, %xmm0
945 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
946 ; SSE42-NEXT: movdqa %xmm5, %xmm0
947 ; SSE42-NEXT: blendvpd %xmm1, %xmm3
948 ; SSE42-NEXT: movapd %xmm2, %xmm0
949 ; SSE42-NEXT: movapd %xmm3, %xmm1
952 ; AVX1-LABEL: min_lt_v4i64:
954 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
955 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
956 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2
957 ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm3
958 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
959 ; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
962 ; AVX2-LABEL: min_lt_v4i64:
964 ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
965 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
968 ; AVX512-LABEL: min_lt_v4i64:
970 ; AVX512-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
971 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
973 %1 = icmp slt <4 x i64> %a, %b
974 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
978 define <4 x i32> @min_lt_v4i32(<4 x i32> %a, <4 x i32> %b) {
979 ; SSE2-LABEL: min_lt_v4i32:
981 ; SSE2-NEXT: movdqa %xmm1, %xmm2
982 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm2
983 ; SSE2-NEXT: pand %xmm2, %xmm0
984 ; SSE2-NEXT: pandn %xmm1, %xmm2
985 ; SSE2-NEXT: por %xmm2, %xmm0
988 ; SSE41-LABEL: min_lt_v4i32:
990 ; SSE41-NEXT: pminsd %xmm1, %xmm0
993 ; SSE42-LABEL: min_lt_v4i32:
995 ; SSE42-NEXT: pminsd %xmm1, %xmm0
998 ; AVX-LABEL: min_lt_v4i32:
1000 ; AVX-NEXT: vpminsd %xmm1, %xmm0, %xmm0
1002 %1 = icmp slt <4 x i32> %a, %b
1003 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
1007 define <8 x i32> @min_lt_v8i32(<8 x i32> %a, <8 x i32> %b) {
1008 ; SSE2-LABEL: min_lt_v8i32:
1010 ; SSE2-NEXT: movdqa %xmm3, %xmm4
1011 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm4
1012 ; SSE2-NEXT: movdqa %xmm2, %xmm5
1013 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm5
1014 ; SSE2-NEXT: pand %xmm5, %xmm0
1015 ; SSE2-NEXT: pandn %xmm2, %xmm5
1016 ; SSE2-NEXT: por %xmm5, %xmm0
1017 ; SSE2-NEXT: pand %xmm4, %xmm1
1018 ; SSE2-NEXT: pandn %xmm3, %xmm4
1019 ; SSE2-NEXT: por %xmm4, %xmm1
1022 ; SSE41-LABEL: min_lt_v8i32:
1024 ; SSE41-NEXT: pminsd %xmm2, %xmm0
1025 ; SSE41-NEXT: pminsd %xmm3, %xmm1
1028 ; SSE42-LABEL: min_lt_v8i32:
1030 ; SSE42-NEXT: pminsd %xmm2, %xmm0
1031 ; SSE42-NEXT: pminsd %xmm3, %xmm1
1034 ; AVX1-LABEL: min_lt_v8i32:
1036 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1037 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1038 ; AVX1-NEXT: vpminsd %xmm2, %xmm3, %xmm2
1039 ; AVX1-NEXT: vpminsd %xmm1, %xmm0, %xmm0
1040 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1043 ; AVX2-LABEL: min_lt_v8i32:
1045 ; AVX2-NEXT: vpminsd %ymm1, %ymm0, %ymm0
1048 ; AVX512-LABEL: min_lt_v8i32:
1050 ; AVX512-NEXT: vpminsd %ymm1, %ymm0, %ymm0
1052 %1 = icmp slt <8 x i32> %a, %b
1053 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
1057 define <8 x i16> @min_lt_v8i16(<8 x i16> %a, <8 x i16> %b) {
1058 ; SSE-LABEL: min_lt_v8i16:
1060 ; SSE-NEXT: pminsw %xmm1, %xmm0
1063 ; AVX-LABEL: min_lt_v8i16:
1065 ; AVX-NEXT: vpminsw %xmm1, %xmm0, %xmm0
1067 %1 = icmp slt <8 x i16> %a, %b
1068 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
1072 define <16 x i16> @min_lt_v16i16(<16 x i16> %a, <16 x i16> %b) {
1073 ; SSE-LABEL: min_lt_v16i16:
1075 ; SSE-NEXT: pminsw %xmm2, %xmm0
1076 ; SSE-NEXT: pminsw %xmm3, %xmm1
1079 ; AVX1-LABEL: min_lt_v16i16:
1081 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1082 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1083 ; AVX1-NEXT: vpminsw %xmm2, %xmm3, %xmm2
1084 ; AVX1-NEXT: vpminsw %xmm1, %xmm0, %xmm0
1085 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1088 ; AVX2-LABEL: min_lt_v16i16:
1090 ; AVX2-NEXT: vpminsw %ymm1, %ymm0, %ymm0
1093 ; AVX512-LABEL: min_lt_v16i16:
1095 ; AVX512-NEXT: vpminsw %ymm1, %ymm0, %ymm0
1097 %1 = icmp slt <16 x i16> %a, %b
1098 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
1102 define <16 x i8> @min_lt_v16i8(<16 x i8> %a, <16 x i8> %b) {
1103 ; SSE2-LABEL: min_lt_v16i8:
1105 ; SSE2-NEXT: movdqa %xmm1, %xmm2
1106 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm2
1107 ; SSE2-NEXT: pand %xmm2, %xmm0
1108 ; SSE2-NEXT: pandn %xmm1, %xmm2
1109 ; SSE2-NEXT: por %xmm2, %xmm0
1112 ; SSE41-LABEL: min_lt_v16i8:
1114 ; SSE41-NEXT: pminsb %xmm1, %xmm0
1117 ; SSE42-LABEL: min_lt_v16i8:
1119 ; SSE42-NEXT: pminsb %xmm1, %xmm0
1122 ; AVX-LABEL: min_lt_v16i8:
1124 ; AVX-NEXT: vpminsb %xmm1, %xmm0, %xmm0
1126 %1 = icmp slt <16 x i8> %a, %b
1127 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
1131 define <32 x i8> @min_lt_v32i8(<32 x i8> %a, <32 x i8> %b) {
1132 ; SSE2-LABEL: min_lt_v32i8:
1134 ; SSE2-NEXT: movdqa %xmm3, %xmm4
1135 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm4
1136 ; SSE2-NEXT: movdqa %xmm2, %xmm5
1137 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm5
1138 ; SSE2-NEXT: pand %xmm5, %xmm0
1139 ; SSE2-NEXT: pandn %xmm2, %xmm5
1140 ; SSE2-NEXT: por %xmm5, %xmm0
1141 ; SSE2-NEXT: pand %xmm4, %xmm1
1142 ; SSE2-NEXT: pandn %xmm3, %xmm4
1143 ; SSE2-NEXT: por %xmm4, %xmm1
1146 ; SSE41-LABEL: min_lt_v32i8:
1148 ; SSE41-NEXT: pminsb %xmm2, %xmm0
1149 ; SSE41-NEXT: pminsb %xmm3, %xmm1
1152 ; SSE42-LABEL: min_lt_v32i8:
1154 ; SSE42-NEXT: pminsb %xmm2, %xmm0
1155 ; SSE42-NEXT: pminsb %xmm3, %xmm1
1158 ; AVX1-LABEL: min_lt_v32i8:
1160 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1161 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1162 ; AVX1-NEXT: vpminsb %xmm2, %xmm3, %xmm2
1163 ; AVX1-NEXT: vpminsb %xmm1, %xmm0, %xmm0
1164 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1167 ; AVX2-LABEL: min_lt_v32i8:
1169 ; AVX2-NEXT: vpminsb %ymm1, %ymm0, %ymm0
1172 ; AVX512-LABEL: min_lt_v32i8:
1174 ; AVX512-NEXT: vpminsb %ymm1, %ymm0, %ymm0
1176 %1 = icmp slt <32 x i8> %a, %b
1177 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
1182 ; Signed Minimum (LE)
1185 define <2 x i64> @min_le_v2i64(<2 x i64> %a, <2 x i64> %b) {
1186 ; SSE2-LABEL: min_le_v2i64:
1188 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
1189 ; SSE2-NEXT: movdqa %xmm1, %xmm3
1190 ; SSE2-NEXT: pxor %xmm2, %xmm3
1191 ; SSE2-NEXT: pxor %xmm0, %xmm2
1192 ; SSE2-NEXT: movdqa %xmm2, %xmm4
1193 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
1194 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1195 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm2
1196 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
1197 ; SSE2-NEXT: pand %xmm5, %xmm2
1198 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
1199 ; SSE2-NEXT: por %xmm2, %xmm3
1200 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2
1201 ; SSE2-NEXT: pxor %xmm3, %xmm2
1202 ; SSE2-NEXT: pandn %xmm0, %xmm3
1203 ; SSE2-NEXT: pandn %xmm1, %xmm2
1204 ; SSE2-NEXT: por %xmm3, %xmm2
1205 ; SSE2-NEXT: movdqa %xmm2, %xmm0
1208 ; SSE41-LABEL: min_le_v2i64:
1210 ; SSE41-NEXT: movdqa %xmm0, %xmm2
1211 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1212 ; SSE41-NEXT: movdqa %xmm1, %xmm3
1213 ; SSE41-NEXT: pxor %xmm0, %xmm3
1214 ; SSE41-NEXT: pxor %xmm2, %xmm0
1215 ; SSE41-NEXT: movdqa %xmm0, %xmm4
1216 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
1217 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1218 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
1219 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
1220 ; SSE41-NEXT: pand %xmm5, %xmm0
1221 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
1222 ; SSE41-NEXT: por %xmm0, %xmm3
1223 ; SSE41-NEXT: pcmpeqd %xmm0, %xmm0
1224 ; SSE41-NEXT: pxor %xmm3, %xmm0
1225 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
1226 ; SSE41-NEXT: movapd %xmm1, %xmm0
1229 ; SSE42-LABEL: min_le_v2i64:
1231 ; SSE42-NEXT: movdqa %xmm0, %xmm2
1232 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm0
1233 ; SSE42-NEXT: pcmpeqd %xmm3, %xmm3
1234 ; SSE42-NEXT: pxor %xmm3, %xmm0
1235 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
1236 ; SSE42-NEXT: movapd %xmm1, %xmm0
1239 ; AVX-LABEL: min_le_v2i64:
1241 ; AVX-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2
1242 ; AVX-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
1243 ; AVX-NEXT: vpxor %xmm3, %xmm2, %xmm2
1244 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
1246 %1 = icmp sle <2 x i64> %a, %b
1247 %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
1251 define <4 x i64> @min_le_v4i64(<4 x i64> %a, <4 x i64> %b) {
1252 ; SSE2-LABEL: min_le_v4i64:
1254 ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
1255 ; SSE2-NEXT: movdqa %xmm3, %xmm4
1256 ; SSE2-NEXT: pxor %xmm7, %xmm4
1257 ; SSE2-NEXT: movdqa %xmm1, %xmm5
1258 ; SSE2-NEXT: pxor %xmm7, %xmm5
1259 ; SSE2-NEXT: movdqa %xmm5, %xmm6
1260 ; SSE2-NEXT: pcmpgtd %xmm4, %xmm6
1261 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[0,0,2,2]
1262 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm5
1263 ; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm5[1,1,3,3]
1264 ; SSE2-NEXT: pand %xmm8, %xmm4
1265 ; SSE2-NEXT: pshufd {{.*#+}} xmm8 = xmm6[1,1,3,3]
1266 ; SSE2-NEXT: por %xmm4, %xmm8
1267 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4
1268 ; SSE2-NEXT: movdqa %xmm8, %xmm9
1269 ; SSE2-NEXT: pxor %xmm4, %xmm9
1270 ; SSE2-NEXT: movdqa %xmm2, %xmm6
1271 ; SSE2-NEXT: pxor %xmm7, %xmm6
1272 ; SSE2-NEXT: pxor %xmm0, %xmm7
1273 ; SSE2-NEXT: movdqa %xmm7, %xmm5
1274 ; SSE2-NEXT: pcmpgtd %xmm6, %xmm5
1275 ; SSE2-NEXT: pshufd {{.*#+}} xmm10 = xmm5[0,0,2,2]
1276 ; SSE2-NEXT: pcmpeqd %xmm6, %xmm7
1277 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
1278 ; SSE2-NEXT: pand %xmm10, %xmm6
1279 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm5[1,1,3,3]
1280 ; SSE2-NEXT: por %xmm6, %xmm5
1281 ; SSE2-NEXT: pxor %xmm5, %xmm4
1282 ; SSE2-NEXT: pandn %xmm0, %xmm5
1283 ; SSE2-NEXT: pandn %xmm2, %xmm4
1284 ; SSE2-NEXT: por %xmm5, %xmm4
1285 ; SSE2-NEXT: pandn %xmm1, %xmm8
1286 ; SSE2-NEXT: pandn %xmm3, %xmm9
1287 ; SSE2-NEXT: por %xmm8, %xmm9
1288 ; SSE2-NEXT: movdqa %xmm4, %xmm0
1289 ; SSE2-NEXT: movdqa %xmm9, %xmm1
1292 ; SSE41-LABEL: min_le_v4i64:
1294 ; SSE41-NEXT: movdqa %xmm0, %xmm8
1295 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1296 ; SSE41-NEXT: movdqa %xmm3, %xmm5
1297 ; SSE41-NEXT: pxor %xmm0, %xmm5
1298 ; SSE41-NEXT: movdqa %xmm1, %xmm6
1299 ; SSE41-NEXT: pxor %xmm0, %xmm6
1300 ; SSE41-NEXT: movdqa %xmm6, %xmm7
1301 ; SSE41-NEXT: pcmpgtd %xmm5, %xmm7
1302 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1303 ; SSE41-NEXT: pcmpeqd %xmm5, %xmm6
1304 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1305 ; SSE41-NEXT: pand %xmm4, %xmm6
1306 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
1307 ; SSE41-NEXT: por %xmm6, %xmm5
1308 ; SSE41-NEXT: pcmpeqd %xmm9, %xmm9
1309 ; SSE41-NEXT: pxor %xmm9, %xmm5
1310 ; SSE41-NEXT: movdqa %xmm2, %xmm6
1311 ; SSE41-NEXT: pxor %xmm0, %xmm6
1312 ; SSE41-NEXT: pxor %xmm8, %xmm0
1313 ; SSE41-NEXT: movdqa %xmm0, %xmm7
1314 ; SSE41-NEXT: pcmpgtd %xmm6, %xmm7
1315 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1316 ; SSE41-NEXT: pcmpeqd %xmm6, %xmm0
1317 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
1318 ; SSE41-NEXT: pand %xmm4, %xmm6
1319 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
1320 ; SSE41-NEXT: por %xmm6, %xmm0
1321 ; SSE41-NEXT: pxor %xmm9, %xmm0
1322 ; SSE41-NEXT: blendvpd %xmm8, %xmm2
1323 ; SSE41-NEXT: movdqa %xmm5, %xmm0
1324 ; SSE41-NEXT: blendvpd %xmm1, %xmm3
1325 ; SSE41-NEXT: movapd %xmm2, %xmm0
1326 ; SSE41-NEXT: movapd %xmm3, %xmm1
1329 ; SSE42-LABEL: min_le_v4i64:
1331 ; SSE42-NEXT: movdqa %xmm0, %xmm4
1332 ; SSE42-NEXT: movdqa %xmm1, %xmm5
1333 ; SSE42-NEXT: pcmpgtq %xmm3, %xmm5
1334 ; SSE42-NEXT: pcmpeqd %xmm6, %xmm6
1335 ; SSE42-NEXT: pxor %xmm6, %xmm5
1336 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0
1337 ; SSE42-NEXT: pxor %xmm6, %xmm0
1338 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
1339 ; SSE42-NEXT: movdqa %xmm5, %xmm0
1340 ; SSE42-NEXT: blendvpd %xmm1, %xmm3
1341 ; SSE42-NEXT: movapd %xmm2, %xmm0
1342 ; SSE42-NEXT: movapd %xmm3, %xmm1
1345 ; AVX1-LABEL: min_le_v4i64:
1347 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1348 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1349 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2
1350 ; AVX1-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
1351 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2
1352 ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm4
1353 ; AVX1-NEXT: vpxor %xmm3, %xmm4, %xmm3
1354 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2
1355 ; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1358 ; AVX2-LABEL: min_le_v4i64:
1360 ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
1361 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
1362 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2
1363 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1366 ; AVX512-LABEL: min_le_v4i64:
1368 ; AVX512-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
1369 ; AVX512-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
1370 ; AVX512-NEXT: vpxor %ymm3, %ymm2, %ymm2
1371 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1373 %1 = icmp sle <4 x i64> %a, %b
1374 %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
1378 define <4 x i32> @min_le_v4i32(<4 x i32> %a, <4 x i32> %b) {
1379 ; SSE2-LABEL: min_le_v4i32:
1381 ; SSE2-NEXT: movdqa %xmm0, %xmm2
1382 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm2
1383 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm3
1384 ; SSE2-NEXT: pxor %xmm2, %xmm3
1385 ; SSE2-NEXT: pandn %xmm0, %xmm2
1386 ; SSE2-NEXT: pandn %xmm1, %xmm3
1387 ; SSE2-NEXT: por %xmm3, %xmm2
1388 ; SSE2-NEXT: movdqa %xmm2, %xmm0
1391 ; SSE41-LABEL: min_le_v4i32:
1393 ; SSE41-NEXT: pminsd %xmm1, %xmm0
1396 ; SSE42-LABEL: min_le_v4i32:
1398 ; SSE42-NEXT: pminsd %xmm1, %xmm0
1401 ; AVX-LABEL: min_le_v4i32:
1403 ; AVX-NEXT: vpminsd %xmm1, %xmm0, %xmm0
1405 %1 = icmp sle <4 x i32> %a, %b
1406 %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
1410 define <8 x i32> @min_le_v8i32(<8 x i32> %a, <8 x i32> %b) {
1411 ; SSE2-LABEL: min_le_v8i32:
1413 ; SSE2-NEXT: movdqa %xmm1, %xmm6
1414 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm6
1415 ; SSE2-NEXT: pcmpeqd %xmm7, %xmm7
1416 ; SSE2-NEXT: movdqa %xmm6, %xmm4
1417 ; SSE2-NEXT: pxor %xmm7, %xmm4
1418 ; SSE2-NEXT: movdqa %xmm0, %xmm5
1419 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm5
1420 ; SSE2-NEXT: pxor %xmm5, %xmm7
1421 ; SSE2-NEXT: pandn %xmm0, %xmm5
1422 ; SSE2-NEXT: pandn %xmm2, %xmm7
1423 ; SSE2-NEXT: por %xmm7, %xmm5
1424 ; SSE2-NEXT: pandn %xmm1, %xmm6
1425 ; SSE2-NEXT: pandn %xmm3, %xmm4
1426 ; SSE2-NEXT: por %xmm6, %xmm4
1427 ; SSE2-NEXT: movdqa %xmm5, %xmm0
1428 ; SSE2-NEXT: movdqa %xmm4, %xmm1
1431 ; SSE41-LABEL: min_le_v8i32:
1433 ; SSE41-NEXT: pminsd %xmm2, %xmm0
1434 ; SSE41-NEXT: pminsd %xmm3, %xmm1
1437 ; SSE42-LABEL: min_le_v8i32:
1439 ; SSE42-NEXT: pminsd %xmm2, %xmm0
1440 ; SSE42-NEXT: pminsd %xmm3, %xmm1
1443 ; AVX1-LABEL: min_le_v8i32:
1445 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1446 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1447 ; AVX1-NEXT: vpminsd %xmm2, %xmm3, %xmm2
1448 ; AVX1-NEXT: vpminsd %xmm1, %xmm0, %xmm0
1449 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1452 ; AVX2-LABEL: min_le_v8i32:
1454 ; AVX2-NEXT: vpminsd %ymm1, %ymm0, %ymm0
1457 ; AVX512-LABEL: min_le_v8i32:
1459 ; AVX512-NEXT: vpminsd %ymm1, %ymm0, %ymm0
1461 %1 = icmp sle <8 x i32> %a, %b
1462 %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
1466 define <8 x i16> @min_le_v8i16(<8 x i16> %a, <8 x i16> %b) {
1467 ; SSE-LABEL: min_le_v8i16:
1469 ; SSE-NEXT: pminsw %xmm1, %xmm0
1472 ; AVX-LABEL: min_le_v8i16:
1474 ; AVX-NEXT: vpminsw %xmm1, %xmm0, %xmm0
1476 %1 = icmp sle <8 x i16> %a, %b
1477 %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
1481 define <16 x i16> @min_le_v16i16(<16 x i16> %a, <16 x i16> %b) {
1482 ; SSE-LABEL: min_le_v16i16:
1484 ; SSE-NEXT: pminsw %xmm2, %xmm0
1485 ; SSE-NEXT: pminsw %xmm3, %xmm1
1488 ; AVX1-LABEL: min_le_v16i16:
1490 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1491 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1492 ; AVX1-NEXT: vpminsw %xmm2, %xmm3, %xmm2
1493 ; AVX1-NEXT: vpminsw %xmm1, %xmm0, %xmm0
1494 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1497 ; AVX2-LABEL: min_le_v16i16:
1499 ; AVX2-NEXT: vpminsw %ymm1, %ymm0, %ymm0
1502 ; AVX512-LABEL: min_le_v16i16:
1504 ; AVX512-NEXT: vpminsw %ymm1, %ymm0, %ymm0
1506 %1 = icmp sle <16 x i16> %a, %b
1507 %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
1511 define <16 x i8> @min_le_v16i8(<16 x i8> %a, <16 x i8> %b) {
1512 ; SSE2-LABEL: min_le_v16i8:
1514 ; SSE2-NEXT: movdqa %xmm0, %xmm2
1515 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm2
1516 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm3
1517 ; SSE2-NEXT: pxor %xmm2, %xmm3
1518 ; SSE2-NEXT: pandn %xmm0, %xmm2
1519 ; SSE2-NEXT: pandn %xmm1, %xmm3
1520 ; SSE2-NEXT: por %xmm3, %xmm2
1521 ; SSE2-NEXT: movdqa %xmm2, %xmm0
1524 ; SSE41-LABEL: min_le_v16i8:
1526 ; SSE41-NEXT: pminsb %xmm1, %xmm0
1529 ; SSE42-LABEL: min_le_v16i8:
1531 ; SSE42-NEXT: pminsb %xmm1, %xmm0
1534 ; AVX-LABEL: min_le_v16i8:
1536 ; AVX-NEXT: vpminsb %xmm1, %xmm0, %xmm0
1538 %1 = icmp sle <16 x i8> %a, %b
1539 %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
1543 define <32 x i8> @min_le_v32i8(<32 x i8> %a, <32 x i8> %b) {
1544 ; SSE2-LABEL: min_le_v32i8:
1546 ; SSE2-NEXT: movdqa %xmm1, %xmm6
1547 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm6
1548 ; SSE2-NEXT: pcmpeqd %xmm7, %xmm7
1549 ; SSE2-NEXT: movdqa %xmm6, %xmm4
1550 ; SSE2-NEXT: pxor %xmm7, %xmm4
1551 ; SSE2-NEXT: movdqa %xmm0, %xmm5
1552 ; SSE2-NEXT: pcmpgtb %xmm2, %xmm5
1553 ; SSE2-NEXT: pxor %xmm5, %xmm7
1554 ; SSE2-NEXT: pandn %xmm0, %xmm5
1555 ; SSE2-NEXT: pandn %xmm2, %xmm7
1556 ; SSE2-NEXT: por %xmm7, %xmm5
1557 ; SSE2-NEXT: pandn %xmm1, %xmm6
1558 ; SSE2-NEXT: pandn %xmm3, %xmm4
1559 ; SSE2-NEXT: por %xmm6, %xmm4
1560 ; SSE2-NEXT: movdqa %xmm5, %xmm0
1561 ; SSE2-NEXT: movdqa %xmm4, %xmm1
1564 ; SSE41-LABEL: min_le_v32i8:
1566 ; SSE41-NEXT: pminsb %xmm2, %xmm0
1567 ; SSE41-NEXT: pminsb %xmm3, %xmm1
1570 ; SSE42-LABEL: min_le_v32i8:
1572 ; SSE42-NEXT: pminsb %xmm2, %xmm0
1573 ; SSE42-NEXT: pminsb %xmm3, %xmm1
1576 ; AVX1-LABEL: min_le_v32i8:
1578 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1579 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
1580 ; AVX1-NEXT: vpminsb %xmm2, %xmm3, %xmm2
1581 ; AVX1-NEXT: vpminsb %xmm1, %xmm0, %xmm0
1582 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
1585 ; AVX2-LABEL: min_le_v32i8:
1587 ; AVX2-NEXT: vpminsb %ymm1, %ymm0, %ymm0
1590 ; AVX512-LABEL: min_le_v32i8:
1592 ; AVX512-NEXT: vpminsb %ymm1, %ymm0, %ymm0
1594 %1 = icmp sle <32 x i8> %a, %b
1595 %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
1603 define <2 x i64> @max_gt_v2i64c() {
1604 ; SSE2-LABEL: max_gt_v2i64c:
1606 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
1607 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
1608 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1609 ; SSE2-NEXT: movdqa %xmm0, %xmm3
1610 ; SSE2-NEXT: pxor %xmm2, %xmm3
1611 ; SSE2-NEXT: pxor %xmm1, %xmm0
1612 ; SSE2-NEXT: movdqa %xmm0, %xmm4
1613 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
1614 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1615 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm0
1616 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
1617 ; SSE2-NEXT: pand %xmm5, %xmm3
1618 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
1619 ; SSE2-NEXT: por %xmm3, %xmm0
1620 ; SSE2-NEXT: movdqa %xmm0, %xmm3
1621 ; SSE2-NEXT: pandn %xmm2, %xmm3
1622 ; SSE2-NEXT: pand %xmm1, %xmm0
1623 ; SSE2-NEXT: por %xmm3, %xmm0
1626 ; SSE41-LABEL: max_gt_v2i64c:
1628 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
1629 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
1630 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1631 ; SSE41-NEXT: movdqa %xmm0, %xmm3
1632 ; SSE41-NEXT: pxor %xmm1, %xmm3
1633 ; SSE41-NEXT: pxor %xmm2, %xmm0
1634 ; SSE41-NEXT: movdqa %xmm0, %xmm4
1635 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
1636 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1637 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
1638 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
1639 ; SSE41-NEXT: pand %xmm5, %xmm3
1640 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
1641 ; SSE41-NEXT: por %xmm3, %xmm0
1642 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
1643 ; SSE41-NEXT: movapd %xmm1, %xmm0
1646 ; SSE42-LABEL: max_gt_v2i64c:
1648 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
1649 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
1650 ; SSE42-NEXT: movdqa %xmm2, %xmm0
1651 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm0
1652 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
1653 ; SSE42-NEXT: movapd %xmm1, %xmm0
1656 ; AVX-LABEL: max_gt_v2i64c:
1658 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
1659 ; AVX-NEXT: vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
1660 ; AVX-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2
1661 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
1663 %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
1664 %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
1665 %3 = icmp sgt <2 x i64> %1, %2
1666 %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
1670 define <4 x i64> @max_gt_v4i64c() {
1671 ; SSE2-LABEL: max_gt_v4i64c:
1673 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
1674 ; SSE2-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
1675 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
1676 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [7,1]
1677 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1678 ; SSE2-NEXT: movdqa %xmm0, %xmm1
1679 ; SSE2-NEXT: pxor %xmm3, %xmm1
1680 ; SSE2-NEXT: movdqa %xmm0, %xmm6
1681 ; SSE2-NEXT: pxor %xmm8, %xmm6
1682 ; SSE2-NEXT: movdqa %xmm6, %xmm7
1683 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm7
1684 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm7[0,0,2,2]
1685 ; SSE2-NEXT: pcmpeqd %xmm1, %xmm6
1686 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1687 ; SSE2-NEXT: pand %xmm2, %xmm6
1688 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm7[1,1,3,3]
1689 ; SSE2-NEXT: por %xmm6, %xmm1
1690 ; SSE2-NEXT: movdqa %xmm0, %xmm2
1691 ; SSE2-NEXT: pxor %xmm5, %xmm2
1692 ; SSE2-NEXT: pxor %xmm4, %xmm0
1693 ; SSE2-NEXT: movdqa %xmm0, %xmm6
1694 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm6
1695 ; SSE2-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
1696 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm0
1697 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm0[1,1,3,3]
1698 ; SSE2-NEXT: pand %xmm7, %xmm2
1699 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
1700 ; SSE2-NEXT: por %xmm2, %xmm0
1701 ; SSE2-NEXT: movdqa %xmm0, %xmm2
1702 ; SSE2-NEXT: pandn %xmm5, %xmm2
1703 ; SSE2-NEXT: pand %xmm4, %xmm0
1704 ; SSE2-NEXT: por %xmm2, %xmm0
1705 ; SSE2-NEXT: movdqa %xmm1, %xmm2
1706 ; SSE2-NEXT: pandn %xmm3, %xmm2
1707 ; SSE2-NEXT: pand %xmm8, %xmm1
1708 ; SSE2-NEXT: por %xmm2, %xmm1
1711 ; SSE41-LABEL: max_gt_v4i64c:
1713 ; SSE41-NEXT: movdqa {{.*#+}} xmm5 = [18446744073709551609,18446744073709551615]
1714 ; SSE41-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
1715 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
1716 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
1717 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1718 ; SSE41-NEXT: movdqa %xmm0, %xmm3
1719 ; SSE41-NEXT: pxor %xmm1, %xmm3
1720 ; SSE41-NEXT: movdqa %xmm0, %xmm6
1721 ; SSE41-NEXT: pxor %xmm8, %xmm6
1722 ; SSE41-NEXT: movdqa %xmm6, %xmm7
1723 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm7
1724 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1725 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm6
1726 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1727 ; SSE41-NEXT: pand %xmm4, %xmm6
1728 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
1729 ; SSE41-NEXT: por %xmm6, %xmm3
1730 ; SSE41-NEXT: movdqa %xmm0, %xmm4
1731 ; SSE41-NEXT: pxor %xmm2, %xmm4
1732 ; SSE41-NEXT: pxor %xmm5, %xmm0
1733 ; SSE41-NEXT: movdqa %xmm0, %xmm6
1734 ; SSE41-NEXT: pcmpgtd %xmm4, %xmm6
1735 ; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
1736 ; SSE41-NEXT: pcmpeqd %xmm4, %xmm0
1737 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
1738 ; SSE41-NEXT: pand %xmm7, %xmm4
1739 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
1740 ; SSE41-NEXT: por %xmm4, %xmm0
1741 ; SSE41-NEXT: blendvpd %xmm5, %xmm2
1742 ; SSE41-NEXT: movdqa %xmm3, %xmm0
1743 ; SSE41-NEXT: blendvpd %xmm8, %xmm1
1744 ; SSE41-NEXT: movapd %xmm2, %xmm0
1747 ; SSE42-LABEL: max_gt_v4i64c:
1749 ; SSE42-NEXT: movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
1750 ; SSE42-NEXT: movdqa {{.*#+}} xmm5 = [1,7]
1751 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
1752 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
1753 ; SSE42-NEXT: movdqa %xmm5, %xmm3
1754 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm3
1755 ; SSE42-NEXT: movdqa %xmm4, %xmm0
1756 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0
1757 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
1758 ; SSE42-NEXT: movdqa %xmm3, %xmm0
1759 ; SSE42-NEXT: blendvpd %xmm5, %xmm1
1760 ; SSE42-NEXT: movapd %xmm2, %xmm0
1763 ; AVX1-LABEL: max_gt_v4i64c:
1765 ; AVX1-NEXT: vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
1766 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [18446744073709551609,18446744073709551615]
1767 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
1768 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [1,7]
1769 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm2, %xmm2
1770 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm1, %ymm1
1771 ; AVX1-NEXT: vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
1774 ; AVX2-LABEL: max_gt_v4i64c:
1776 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
1777 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
1778 ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
1779 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1782 ; AVX512-LABEL: max_gt_v4i64c:
1784 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
1785 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
1786 ; AVX512-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
1787 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1789 %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
1790 %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
1791 %3 = icmp sgt <4 x i64> %1, %2
1792 %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
1796 define <4 x i32> @max_gt_v4i32c() {
1797 ; SSE2-LABEL: max_gt_v4i32c:
1799 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
1800 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,4294967289,7,1]
1801 ; SSE2-NEXT: movdqa %xmm1, %xmm0
1802 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm0
1803 ; SSE2-NEXT: pand %xmm0, %xmm1
1804 ; SSE2-NEXT: pandn %xmm2, %xmm0
1805 ; SSE2-NEXT: por %xmm1, %xmm0
1808 ; SSE41-LABEL: max_gt_v4i32c:
1810 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
1811 ; SSE41-NEXT: pmaxsd {{.*}}(%rip), %xmm0
1814 ; SSE42-LABEL: max_gt_v4i32c:
1816 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
1817 ; SSE42-NEXT: pmaxsd {{.*}}(%rip), %xmm0
1820 ; AVX-LABEL: max_gt_v4i32c:
1822 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
1823 ; AVX-NEXT: vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
1825 %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
1826 %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 1, i32 0
1827 %3 = icmp sgt <4 x i32> %1, %2
1828 %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
1832 define <8 x i32> @max_gt_v8i32c() {
1833 ; SSE2-LABEL: max_gt_v8i32c:
1835 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
1836 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [1,3,5,7]
1837 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [1,4294967293,4294967291,4294967289]
1838 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [7,5,3,1]
1839 ; SSE2-NEXT: movdqa %xmm3, %xmm1
1840 ; SSE2-NEXT: pcmpgtd %xmm5, %xmm1
1841 ; SSE2-NEXT: movdqa %xmm2, %xmm0
1842 ; SSE2-NEXT: pcmpgtd %xmm4, %xmm0
1843 ; SSE2-NEXT: pand %xmm0, %xmm2
1844 ; SSE2-NEXT: pandn %xmm4, %xmm0
1845 ; SSE2-NEXT: por %xmm2, %xmm0
1846 ; SSE2-NEXT: pand %xmm1, %xmm3
1847 ; SSE2-NEXT: pandn %xmm5, %xmm1
1848 ; SSE2-NEXT: por %xmm3, %xmm1
1851 ; SSE41-LABEL: max_gt_v8i32c:
1853 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
1854 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
1855 ; SSE41-NEXT: pmaxsd {{.*}}(%rip), %xmm0
1856 ; SSE41-NEXT: pmaxsd {{.*}}(%rip), %xmm1
1859 ; SSE42-LABEL: max_gt_v8i32c:
1861 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
1862 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
1863 ; SSE42-NEXT: pmaxsd {{.*}}(%rip), %xmm0
1864 ; SSE42-NEXT: pmaxsd {{.*}}(%rip), %xmm1
1867 ; AVX1-LABEL: max_gt_v8i32c:
1869 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
1870 ; AVX1-NEXT: vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
1871 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
1872 ; AVX1-NEXT: vpmaxsd {{.*}}(%rip), %xmm1, %xmm1
1873 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
1876 ; AVX2-LABEL: max_gt_v8i32c:
1878 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
1879 ; AVX2-NEXT: vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
1882 ; AVX512-LABEL: max_gt_v8i32c:
1884 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
1885 ; AVX512-NEXT: vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
1887 %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
1888 %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 1, i32 0
1889 %3 = icmp sgt <8 x i32> %1, %2
1890 %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
1894 define <8 x i16> @max_gt_v8i16c() {
1895 ; SSE-LABEL: max_gt_v8i16c:
1897 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
1898 ; SSE-NEXT: pmaxsw {{.*}}(%rip), %xmm0
1901 ; AVX-LABEL: max_gt_v8i16c:
1903 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
1904 ; AVX-NEXT: vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
1906 %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i16 0
1907 %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 1, i16 0
1908 %3 = icmp sgt <8 x i16> %1, %2
1909 %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
1913 define <16 x i16> @max_gt_v16i16c() {
1914 ; SSE-LABEL: max_gt_v16i16c:
1916 ; SSE-NEXT: movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
1917 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
1918 ; SSE-NEXT: pmaxsw {{.*}}(%rip), %xmm0
1919 ; SSE-NEXT: pmaxsw {{.*}}(%rip), %xmm1
1922 ; AVX1-LABEL: max_gt_v16i16c:
1924 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
1925 ; AVX1-NEXT: vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
1926 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
1927 ; AVX1-NEXT: vpmaxsw {{.*}}(%rip), %xmm1, %xmm1
1928 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
1931 ; AVX2-LABEL: max_gt_v16i16c:
1933 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
1934 ; AVX2-NEXT: vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
1937 ; AVX512-LABEL: max_gt_v16i16c:
1939 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
1940 ; AVX512-NEXT: vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
1942 %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i16 0
1943 %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 1, i16 0
1944 %3 = icmp sgt <16 x i16> %1, %2
1945 %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
1949 define <16 x i8> @max_gt_v16i8c() {
1950 ; SSE2-LABEL: max_gt_v16i8c:
1952 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1953 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
1954 ; SSE2-NEXT: movdqa %xmm1, %xmm0
1955 ; SSE2-NEXT: pcmpgtb %xmm2, %xmm0
1956 ; SSE2-NEXT: pand %xmm0, %xmm1
1957 ; SSE2-NEXT: pandn %xmm2, %xmm0
1958 ; SSE2-NEXT: por %xmm1, %xmm0
1961 ; SSE41-LABEL: max_gt_v16i8c:
1963 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1964 ; SSE41-NEXT: pmaxsb {{.*}}(%rip), %xmm0
1967 ; SSE42-LABEL: max_gt_v16i8c:
1969 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1970 ; SSE42-NEXT: pmaxsb {{.*}}(%rip), %xmm0
1973 ; AVX-LABEL: max_gt_v16i8c:
1975 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1976 ; AVX-NEXT: vpmaxsb {{.*}}(%rip), %xmm0, %xmm0
1978 %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i8 0
1979 %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 1, i8 0
1980 %3 = icmp sgt <16 x i8> %1, %2
1981 %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
1985 define <2 x i64> @max_ge_v2i64c() {
1986 ; SSE2-LABEL: max_ge_v2i64c:
1988 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
1989 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
1990 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1991 ; SSE2-NEXT: movdqa %xmm0, %xmm3
1992 ; SSE2-NEXT: pxor %xmm1, %xmm3
1993 ; SSE2-NEXT: pxor %xmm2, %xmm0
1994 ; SSE2-NEXT: movdqa %xmm0, %xmm4
1995 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
1996 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1997 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm0
1998 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
1999 ; SSE2-NEXT: pand %xmm5, %xmm0
2000 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2001 ; SSE2-NEXT: por %xmm0, %xmm3
2002 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2003 ; SSE2-NEXT: pxor %xmm3, %xmm0
2004 ; SSE2-NEXT: pandn %xmm1, %xmm3
2005 ; SSE2-NEXT: pandn %xmm2, %xmm0
2006 ; SSE2-NEXT: por %xmm3, %xmm0
2009 ; SSE41-LABEL: max_ge_v2i64c:
2011 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2012 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2013 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2014 ; SSE41-NEXT: movdqa %xmm0, %xmm3
2015 ; SSE41-NEXT: pxor %xmm2, %xmm3
2016 ; SSE41-NEXT: pxor %xmm1, %xmm0
2017 ; SSE41-NEXT: movdqa %xmm0, %xmm4
2018 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
2019 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2020 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
2021 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
2022 ; SSE41-NEXT: pand %xmm5, %xmm0
2023 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2024 ; SSE41-NEXT: por %xmm0, %xmm3
2025 ; SSE41-NEXT: pcmpeqd %xmm0, %xmm0
2026 ; SSE41-NEXT: pxor %xmm3, %xmm0
2027 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
2028 ; SSE41-NEXT: movapd %xmm1, %xmm0
2031 ; SSE42-LABEL: max_ge_v2i64c:
2033 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2034 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2035 ; SSE42-NEXT: movdqa %xmm1, %xmm3
2036 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm3
2037 ; SSE42-NEXT: pcmpeqd %xmm0, %xmm0
2038 ; SSE42-NEXT: pxor %xmm3, %xmm0
2039 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
2040 ; SSE42-NEXT: movapd %xmm1, %xmm0
2043 ; AVX-LABEL: max_ge_v2i64c:
2045 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
2046 ; AVX-NEXT: vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2047 ; AVX-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2
2048 ; AVX-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
2049 ; AVX-NEXT: vpxor %xmm3, %xmm2, %xmm2
2050 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
2052 %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
2053 %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
2054 %3 = icmp sge <2 x i64> %1, %2
2055 %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
2059 define <4 x i64> @max_ge_v4i64c() {
2060 ; SSE2-LABEL: max_ge_v4i64c:
2062 ; SSE2-NEXT: movdqa {{.*#+}} xmm10 = [18446744073709551609,18446744073709551615]
2063 ; SSE2-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
2064 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
2065 ; SSE2-NEXT: movdqa {{.*#+}} xmm9 = [7,1]
2066 ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
2067 ; SSE2-NEXT: movdqa %xmm7, %xmm0
2068 ; SSE2-NEXT: pxor %xmm8, %xmm0
2069 ; SSE2-NEXT: movdqa %xmm7, %xmm1
2070 ; SSE2-NEXT: pxor %xmm9, %xmm1
2071 ; SSE2-NEXT: movdqa %xmm1, %xmm6
2072 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm6
2073 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm6[0,0,2,2]
2074 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm1
2075 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,3,3]
2076 ; SSE2-NEXT: pand %xmm2, %xmm0
2077 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2078 ; SSE2-NEXT: por %xmm0, %xmm6
2079 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2080 ; SSE2-NEXT: movdqa %xmm6, %xmm1
2081 ; SSE2-NEXT: pxor %xmm0, %xmm1
2082 ; SSE2-NEXT: movdqa %xmm7, %xmm2
2083 ; SSE2-NEXT: pxor %xmm10, %xmm2
2084 ; SSE2-NEXT: pxor %xmm5, %xmm7
2085 ; SSE2-NEXT: movdqa %xmm7, %xmm3
2086 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm3
2087 ; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm3[0,0,2,2]
2088 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm7
2089 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm7[1,1,3,3]
2090 ; SSE2-NEXT: pand %xmm4, %xmm2
2091 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm3[1,1,3,3]
2092 ; SSE2-NEXT: por %xmm2, %xmm3
2093 ; SSE2-NEXT: pxor %xmm3, %xmm0
2094 ; SSE2-NEXT: pandn %xmm10, %xmm3
2095 ; SSE2-NEXT: pandn %xmm5, %xmm0
2096 ; SSE2-NEXT: por %xmm3, %xmm0
2097 ; SSE2-NEXT: pandn %xmm8, %xmm6
2098 ; SSE2-NEXT: pandn %xmm9, %xmm1
2099 ; SSE2-NEXT: por %xmm6, %xmm1
2102 ; SSE41-LABEL: max_ge_v4i64c:
2104 ; SSE41-NEXT: movdqa {{.*#+}} xmm9 = [18446744073709551609,18446744073709551615]
2105 ; SSE41-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
2106 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2107 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
2108 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2109 ; SSE41-NEXT: movdqa %xmm0, %xmm3
2110 ; SSE41-NEXT: pxor %xmm8, %xmm3
2111 ; SSE41-NEXT: movdqa %xmm0, %xmm6
2112 ; SSE41-NEXT: pxor %xmm1, %xmm6
2113 ; SSE41-NEXT: movdqa %xmm6, %xmm7
2114 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm7
2115 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
2116 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm6
2117 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2118 ; SSE41-NEXT: pand %xmm4, %xmm6
2119 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
2120 ; SSE41-NEXT: por %xmm6, %xmm3
2121 ; SSE41-NEXT: pcmpeqd %xmm4, %xmm4
2122 ; SSE41-NEXT: pxor %xmm4, %xmm3
2123 ; SSE41-NEXT: movdqa %xmm0, %xmm6
2124 ; SSE41-NEXT: pxor %xmm9, %xmm6
2125 ; SSE41-NEXT: pxor %xmm2, %xmm0
2126 ; SSE41-NEXT: movdqa %xmm0, %xmm7
2127 ; SSE41-NEXT: pcmpgtd %xmm6, %xmm7
2128 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[0,0,2,2]
2129 ; SSE41-NEXT: pcmpeqd %xmm6, %xmm0
2130 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
2131 ; SSE41-NEXT: pand %xmm5, %xmm6
2132 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
2133 ; SSE41-NEXT: por %xmm6, %xmm0
2134 ; SSE41-NEXT: pxor %xmm4, %xmm0
2135 ; SSE41-NEXT: blendvpd %xmm9, %xmm2
2136 ; SSE41-NEXT: movdqa %xmm3, %xmm0
2137 ; SSE41-NEXT: blendvpd %xmm8, %xmm1
2138 ; SSE41-NEXT: movapd %xmm2, %xmm0
2141 ; SSE42-LABEL: max_ge_v4i64c:
2143 ; SSE42-NEXT: movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2144 ; SSE42-NEXT: movdqa {{.*#+}} xmm5 = [1,7]
2145 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2146 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
2147 ; SSE42-NEXT: movdqa %xmm1, %xmm3
2148 ; SSE42-NEXT: pcmpgtq %xmm5, %xmm3
2149 ; SSE42-NEXT: pcmpeqd %xmm6, %xmm6
2150 ; SSE42-NEXT: pxor %xmm6, %xmm3
2151 ; SSE42-NEXT: movdqa %xmm2, %xmm0
2152 ; SSE42-NEXT: pcmpgtq %xmm4, %xmm0
2153 ; SSE42-NEXT: pxor %xmm6, %xmm0
2154 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
2155 ; SSE42-NEXT: movdqa %xmm3, %xmm0
2156 ; SSE42-NEXT: blendvpd %xmm5, %xmm1
2157 ; SSE42-NEXT: movapd %xmm2, %xmm0
2160 ; AVX1-LABEL: max_ge_v4i64c:
2162 ; AVX1-NEXT: vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
2163 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [7,1]
2164 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
2165 ; AVX1-NEXT: vpcmpeqd %xmm2, %xmm2, %xmm2
2166 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm1
2167 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [18446744073709551615,18446744073709551609]
2168 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm3, %xmm3
2169 ; AVX1-NEXT: vpxor %xmm2, %xmm3, %xmm2
2170 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm2, %ymm1
2171 ; AVX1-NEXT: vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
2174 ; AVX2-LABEL: max_ge_v4i64c:
2176 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2177 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2178 ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
2179 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
2180 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2
2181 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2184 ; AVX512-LABEL: max_ge_v4i64c:
2186 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2187 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2188 ; AVX512-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
2189 ; AVX512-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
2190 ; AVX512-NEXT: vpxor %ymm3, %ymm2, %ymm2
2191 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2193 %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
2194 %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
2195 %3 = icmp sge <4 x i64> %1, %2
2196 %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
2200 define <4 x i32> @max_ge_v4i32c() {
2201 ; SSE2-LABEL: max_ge_v4i32c:
2203 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
2204 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,4294967289,7,1]
2205 ; SSE2-NEXT: movdqa %xmm2, %xmm3
2206 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm3
2207 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2208 ; SSE2-NEXT: pxor %xmm3, %xmm0
2209 ; SSE2-NEXT: pandn %xmm1, %xmm3
2210 ; SSE2-NEXT: pandn %xmm2, %xmm0
2211 ; SSE2-NEXT: por %xmm3, %xmm0
2214 ; SSE41-LABEL: max_ge_v4i32c:
2216 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2217 ; SSE41-NEXT: pmaxsd {{.*}}(%rip), %xmm0
2220 ; SSE42-LABEL: max_ge_v4i32c:
2222 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2223 ; SSE42-NEXT: pmaxsd {{.*}}(%rip), %xmm0
2226 ; AVX-LABEL: max_ge_v4i32c:
2228 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2229 ; AVX-NEXT: vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
2231 %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
2232 %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 1, i32 0
2233 %3 = icmp sge <4 x i32> %1, %2
2234 %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
2238 define <8 x i32> @max_ge_v8i32c() {
2239 ; SSE2-LABEL: max_ge_v8i32c:
2241 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
2242 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [1,3,5,7]
2243 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [1,4294967293,4294967291,4294967289]
2244 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [7,5,3,1]
2245 ; SSE2-NEXT: movdqa %xmm5, %xmm6
2246 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm6
2247 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2248 ; SSE2-NEXT: movdqa %xmm6, %xmm1
2249 ; SSE2-NEXT: pxor %xmm0, %xmm1
2250 ; SSE2-NEXT: movdqa %xmm4, %xmm7
2251 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm7
2252 ; SSE2-NEXT: pxor %xmm7, %xmm0
2253 ; SSE2-NEXT: pandn %xmm2, %xmm7
2254 ; SSE2-NEXT: pandn %xmm4, %xmm0
2255 ; SSE2-NEXT: por %xmm7, %xmm0
2256 ; SSE2-NEXT: pandn %xmm3, %xmm6
2257 ; SSE2-NEXT: pandn %xmm5, %xmm1
2258 ; SSE2-NEXT: por %xmm6, %xmm1
2261 ; SSE41-LABEL: max_ge_v8i32c:
2263 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
2264 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2265 ; SSE41-NEXT: pmaxsd {{.*}}(%rip), %xmm0
2266 ; SSE41-NEXT: pmaxsd {{.*}}(%rip), %xmm1
2269 ; SSE42-LABEL: max_ge_v8i32c:
2271 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
2272 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2273 ; SSE42-NEXT: pmaxsd {{.*}}(%rip), %xmm0
2274 ; SSE42-NEXT: pmaxsd {{.*}}(%rip), %xmm1
2277 ; AVX1-LABEL: max_ge_v8i32c:
2279 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2280 ; AVX1-NEXT: vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
2281 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
2282 ; AVX1-NEXT: vpmaxsd {{.*}}(%rip), %xmm1, %xmm1
2283 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
2286 ; AVX2-LABEL: max_ge_v8i32c:
2288 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2289 ; AVX2-NEXT: vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
2292 ; AVX512-LABEL: max_ge_v8i32c:
2294 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2295 ; AVX512-NEXT: vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
2297 %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
2298 %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 1, i32 0
2299 %3 = icmp sge <8 x i32> %1, %2
2300 %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
2304 define <8 x i16> @max_ge_v8i16c() {
2305 ; SSE-LABEL: max_ge_v8i16c:
2307 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2308 ; SSE-NEXT: pmaxsw {{.*}}(%rip), %xmm0
2311 ; AVX-LABEL: max_ge_v8i16c:
2313 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2314 ; AVX-NEXT: vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
2316 %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i16 0
2317 %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 1, i16 0
2318 %3 = icmp sge <8 x i16> %1, %2
2319 %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
2323 define <16 x i16> @max_ge_v16i16c() {
2324 ; SSE-LABEL: max_ge_v16i16c:
2326 ; SSE-NEXT: movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2327 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2328 ; SSE-NEXT: pmaxsw {{.*}}(%rip), %xmm0
2329 ; SSE-NEXT: pmaxsw {{.*}}(%rip), %xmm1
2332 ; AVX1-LABEL: max_ge_v16i16c:
2334 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2335 ; AVX1-NEXT: vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
2336 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2337 ; AVX1-NEXT: vpmaxsw {{.*}}(%rip), %xmm1, %xmm1
2338 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
2341 ; AVX2-LABEL: max_ge_v16i16c:
2343 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2344 ; AVX2-NEXT: vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
2347 ; AVX512-LABEL: max_ge_v16i16c:
2349 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2350 ; AVX512-NEXT: vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
2352 %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i16 0
2353 %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 1, i16 0
2354 %3 = icmp sge <16 x i16> %1, %2
2355 %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
2359 define <16 x i8> @max_ge_v16i8c() {
2360 ; SSE2-LABEL: max_ge_v16i8c:
2362 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2363 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
2364 ; SSE2-NEXT: movdqa %xmm2, %xmm3
2365 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm3
2366 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2367 ; SSE2-NEXT: pxor %xmm3, %xmm0
2368 ; SSE2-NEXT: pandn %xmm1, %xmm3
2369 ; SSE2-NEXT: pandn %xmm2, %xmm0
2370 ; SSE2-NEXT: por %xmm3, %xmm0
2373 ; SSE41-LABEL: max_ge_v16i8c:
2375 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2376 ; SSE41-NEXT: pmaxsb {{.*}}(%rip), %xmm0
2379 ; SSE42-LABEL: max_ge_v16i8c:
2381 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2382 ; SSE42-NEXT: pmaxsb {{.*}}(%rip), %xmm0
2385 ; AVX-LABEL: max_ge_v16i8c:
2387 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2388 ; AVX-NEXT: vpmaxsb {{.*}}(%rip), %xmm0, %xmm0
2390 %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i8 0
2391 %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 1, i8 0
2392 %3 = icmp sge <16 x i8> %1, %2
2393 %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
2397 define <2 x i64> @min_lt_v2i64c() {
2398 ; SSE2-LABEL: min_lt_v2i64c:
2400 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
2401 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
2402 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2403 ; SSE2-NEXT: movdqa %xmm0, %xmm3
2404 ; SSE2-NEXT: pxor %xmm1, %xmm3
2405 ; SSE2-NEXT: pxor %xmm2, %xmm0
2406 ; SSE2-NEXT: movdqa %xmm0, %xmm4
2407 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
2408 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2409 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm0
2410 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
2411 ; SSE2-NEXT: pand %xmm5, %xmm3
2412 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
2413 ; SSE2-NEXT: por %xmm3, %xmm0
2414 ; SSE2-NEXT: movdqa %xmm0, %xmm3
2415 ; SSE2-NEXT: pandn %xmm2, %xmm3
2416 ; SSE2-NEXT: pand %xmm1, %xmm0
2417 ; SSE2-NEXT: por %xmm3, %xmm0
2420 ; SSE41-LABEL: min_lt_v2i64c:
2422 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2423 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2424 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2425 ; SSE41-NEXT: movdqa %xmm0, %xmm3
2426 ; SSE41-NEXT: pxor %xmm2, %xmm3
2427 ; SSE41-NEXT: pxor %xmm1, %xmm0
2428 ; SSE41-NEXT: movdqa %xmm0, %xmm4
2429 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
2430 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2431 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
2432 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
2433 ; SSE41-NEXT: pand %xmm5, %xmm3
2434 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
2435 ; SSE41-NEXT: por %xmm3, %xmm0
2436 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
2437 ; SSE41-NEXT: movapd %xmm1, %xmm0
2440 ; SSE42-LABEL: min_lt_v2i64c:
2442 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2443 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2444 ; SSE42-NEXT: movdqa %xmm1, %xmm0
2445 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0
2446 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
2447 ; SSE42-NEXT: movapd %xmm1, %xmm0
2450 ; AVX-LABEL: min_lt_v2i64c:
2452 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
2453 ; AVX-NEXT: vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2454 ; AVX-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2
2455 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
2457 %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
2458 %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
2459 %3 = icmp slt <2 x i64> %1, %2
2460 %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
2464 define <4 x i64> @min_lt_v4i64c() {
2465 ; SSE2-LABEL: min_lt_v4i64c:
2467 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2468 ; SSE2-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
2469 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
2470 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [7,1]
2471 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2472 ; SSE2-NEXT: movdqa %xmm0, %xmm1
2473 ; SSE2-NEXT: pxor %xmm8, %xmm1
2474 ; SSE2-NEXT: movdqa %xmm0, %xmm6
2475 ; SSE2-NEXT: pxor %xmm3, %xmm6
2476 ; SSE2-NEXT: movdqa %xmm6, %xmm7
2477 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm7
2478 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm7[0,0,2,2]
2479 ; SSE2-NEXT: pcmpeqd %xmm1, %xmm6
2480 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2481 ; SSE2-NEXT: pand %xmm2, %xmm6
2482 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm7[1,1,3,3]
2483 ; SSE2-NEXT: por %xmm6, %xmm1
2484 ; SSE2-NEXT: movdqa %xmm0, %xmm2
2485 ; SSE2-NEXT: pxor %xmm4, %xmm2
2486 ; SSE2-NEXT: pxor %xmm5, %xmm0
2487 ; SSE2-NEXT: movdqa %xmm0, %xmm6
2488 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm6
2489 ; SSE2-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
2490 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm0
2491 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm0[1,1,3,3]
2492 ; SSE2-NEXT: pand %xmm7, %xmm2
2493 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
2494 ; SSE2-NEXT: por %xmm2, %xmm0
2495 ; SSE2-NEXT: movdqa %xmm0, %xmm2
2496 ; SSE2-NEXT: pandn %xmm5, %xmm2
2497 ; SSE2-NEXT: pand %xmm4, %xmm0
2498 ; SSE2-NEXT: por %xmm2, %xmm0
2499 ; SSE2-NEXT: movdqa %xmm1, %xmm2
2500 ; SSE2-NEXT: pandn %xmm3, %xmm2
2501 ; SSE2-NEXT: pand %xmm8, %xmm1
2502 ; SSE2-NEXT: por %xmm2, %xmm1
2505 ; SSE41-LABEL: min_lt_v4i64c:
2507 ; SSE41-NEXT: movdqa {{.*#+}} xmm5 = [18446744073709551609,18446744073709551615]
2508 ; SSE41-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
2509 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2510 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
2511 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2512 ; SSE41-NEXT: movdqa %xmm0, %xmm3
2513 ; SSE41-NEXT: pxor %xmm8, %xmm3
2514 ; SSE41-NEXT: movdqa %xmm0, %xmm6
2515 ; SSE41-NEXT: pxor %xmm1, %xmm6
2516 ; SSE41-NEXT: movdqa %xmm6, %xmm7
2517 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm7
2518 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
2519 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm6
2520 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2521 ; SSE41-NEXT: pand %xmm4, %xmm6
2522 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
2523 ; SSE41-NEXT: por %xmm6, %xmm3
2524 ; SSE41-NEXT: movdqa %xmm0, %xmm4
2525 ; SSE41-NEXT: pxor %xmm5, %xmm4
2526 ; SSE41-NEXT: pxor %xmm2, %xmm0
2527 ; SSE41-NEXT: movdqa %xmm0, %xmm6
2528 ; SSE41-NEXT: pcmpgtd %xmm4, %xmm6
2529 ; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
2530 ; SSE41-NEXT: pcmpeqd %xmm4, %xmm0
2531 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
2532 ; SSE41-NEXT: pand %xmm7, %xmm4
2533 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
2534 ; SSE41-NEXT: por %xmm4, %xmm0
2535 ; SSE41-NEXT: blendvpd %xmm5, %xmm2
2536 ; SSE41-NEXT: movdqa %xmm3, %xmm0
2537 ; SSE41-NEXT: blendvpd %xmm8, %xmm1
2538 ; SSE41-NEXT: movapd %xmm2, %xmm0
2541 ; SSE42-LABEL: min_lt_v4i64c:
2543 ; SSE42-NEXT: movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2544 ; SSE42-NEXT: movdqa {{.*#+}} xmm5 = [1,7]
2545 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2546 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
2547 ; SSE42-NEXT: movdqa %xmm1, %xmm3
2548 ; SSE42-NEXT: pcmpgtq %xmm5, %xmm3
2549 ; SSE42-NEXT: movdqa %xmm2, %xmm0
2550 ; SSE42-NEXT: pcmpgtq %xmm4, %xmm0
2551 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
2552 ; SSE42-NEXT: movdqa %xmm3, %xmm0
2553 ; SSE42-NEXT: blendvpd %xmm5, %xmm1
2554 ; SSE42-NEXT: movapd %xmm2, %xmm0
2557 ; AVX1-LABEL: min_lt_v4i64c:
2559 ; AVX1-NEXT: vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
2560 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [18446744073709551615,18446744073709551609]
2561 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
2562 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [7,1]
2563 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm2, %xmm2
2564 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm1, %ymm1
2565 ; AVX1-NEXT: vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
2568 ; AVX2-LABEL: min_lt_v4i64c:
2570 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2571 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2572 ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
2573 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2576 ; AVX512-LABEL: min_lt_v4i64c:
2578 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2579 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2580 ; AVX512-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2
2581 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2583 %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
2584 %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
2585 %3 = icmp slt <4 x i64> %1, %2
2586 %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
2590 define <4 x i32> @min_lt_v4i32c() {
2591 ; SSE2-LABEL: min_lt_v4i32c:
2593 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
2594 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,4294967289,7,1]
2595 ; SSE2-NEXT: movdqa %xmm2, %xmm0
2596 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm0
2597 ; SSE2-NEXT: pand %xmm0, %xmm1
2598 ; SSE2-NEXT: pandn %xmm2, %xmm0
2599 ; SSE2-NEXT: por %xmm1, %xmm0
2602 ; SSE41-LABEL: min_lt_v4i32c:
2604 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2605 ; SSE41-NEXT: pminsd {{.*}}(%rip), %xmm0
2608 ; SSE42-LABEL: min_lt_v4i32c:
2610 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2611 ; SSE42-NEXT: pminsd {{.*}}(%rip), %xmm0
2614 ; AVX-LABEL: min_lt_v4i32c:
2616 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2617 ; AVX-NEXT: vpminsd {{.*}}(%rip), %xmm0, %xmm0
2619 %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
2620 %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 1, i32 0
2621 %3 = icmp slt <4 x i32> %1, %2
2622 %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
2626 define <8 x i32> @min_lt_v8i32c() {
2627 ; SSE2-LABEL: min_lt_v8i32c:
2629 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
2630 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [1,3,5,7]
2631 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [1,4294967293,4294967291,4294967289]
2632 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [7,5,3,1]
2633 ; SSE2-NEXT: movdqa %xmm5, %xmm1
2634 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm1
2635 ; SSE2-NEXT: movdqa %xmm4, %xmm0
2636 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm0
2637 ; SSE2-NEXT: pand %xmm0, %xmm2
2638 ; SSE2-NEXT: pandn %xmm4, %xmm0
2639 ; SSE2-NEXT: por %xmm2, %xmm0
2640 ; SSE2-NEXT: pand %xmm1, %xmm3
2641 ; SSE2-NEXT: pandn %xmm5, %xmm1
2642 ; SSE2-NEXT: por %xmm3, %xmm1
2645 ; SSE41-LABEL: min_lt_v8i32c:
2647 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
2648 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2649 ; SSE41-NEXT: pminsd {{.*}}(%rip), %xmm0
2650 ; SSE41-NEXT: pminsd {{.*}}(%rip), %xmm1
2653 ; SSE42-LABEL: min_lt_v8i32c:
2655 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
2656 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2657 ; SSE42-NEXT: pminsd {{.*}}(%rip), %xmm0
2658 ; SSE42-NEXT: pminsd {{.*}}(%rip), %xmm1
2661 ; AVX1-LABEL: min_lt_v8i32c:
2663 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2664 ; AVX1-NEXT: vpminsd {{.*}}(%rip), %xmm0, %xmm0
2665 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
2666 ; AVX1-NEXT: vpminsd {{.*}}(%rip), %xmm1, %xmm1
2667 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
2670 ; AVX2-LABEL: min_lt_v8i32c:
2672 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2673 ; AVX2-NEXT: vpminsd {{.*}}(%rip), %ymm0, %ymm0
2676 ; AVX512-LABEL: min_lt_v8i32c:
2678 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2679 ; AVX512-NEXT: vpminsd {{.*}}(%rip), %ymm0, %ymm0
2681 %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
2682 %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 1, i32 0
2683 %3 = icmp slt <8 x i32> %1, %2
2684 %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
2688 define <8 x i16> @min_lt_v8i16c() {
2689 ; SSE-LABEL: min_lt_v8i16c:
2691 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2692 ; SSE-NEXT: pminsw {{.*}}(%rip), %xmm0
2695 ; AVX-LABEL: min_lt_v8i16c:
2697 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2698 ; AVX-NEXT: vpminsw {{.*}}(%rip), %xmm0, %xmm0
2700 %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i16 0
2701 %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 1, i16 0
2702 %3 = icmp slt <8 x i16> %1, %2
2703 %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
2707 define <16 x i16> @min_lt_v16i16c() {
2708 ; SSE-LABEL: min_lt_v16i16c:
2710 ; SSE-NEXT: movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2711 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2712 ; SSE-NEXT: pminsw {{.*}}(%rip), %xmm0
2713 ; SSE-NEXT: pminsw {{.*}}(%rip), %xmm1
2716 ; AVX1-LABEL: min_lt_v16i16c:
2718 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2719 ; AVX1-NEXT: vpminsw {{.*}}(%rip), %xmm0, %xmm0
2720 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2721 ; AVX1-NEXT: vpminsw {{.*}}(%rip), %xmm1, %xmm1
2722 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
2725 ; AVX2-LABEL: min_lt_v16i16c:
2727 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2728 ; AVX2-NEXT: vpminsw {{.*}}(%rip), %ymm0, %ymm0
2731 ; AVX512-LABEL: min_lt_v16i16c:
2733 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2734 ; AVX512-NEXT: vpminsw {{.*}}(%rip), %ymm0, %ymm0
2736 %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i16 0
2737 %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 1, i16 0
2738 %3 = icmp slt <16 x i16> %1, %2
2739 %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
2743 define <16 x i8> @min_lt_v16i8c() {
2744 ; SSE2-LABEL: min_lt_v16i8c:
2746 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2747 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
2748 ; SSE2-NEXT: movdqa %xmm2, %xmm0
2749 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm0
2750 ; SSE2-NEXT: pand %xmm0, %xmm1
2751 ; SSE2-NEXT: pandn %xmm2, %xmm0
2752 ; SSE2-NEXT: por %xmm1, %xmm0
2755 ; SSE41-LABEL: min_lt_v16i8c:
2757 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2758 ; SSE41-NEXT: pminsb {{.*}}(%rip), %xmm0
2761 ; SSE42-LABEL: min_lt_v16i8c:
2763 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2764 ; SSE42-NEXT: pminsb {{.*}}(%rip), %xmm0
2767 ; AVX-LABEL: min_lt_v16i8c:
2769 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2770 ; AVX-NEXT: vpminsb {{.*}}(%rip), %xmm0, %xmm0
2772 %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i8 0
2773 %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 1, i8 0
2774 %3 = icmp slt <16 x i8> %1, %2
2775 %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
2779 define <2 x i64> @min_le_v2i64c() {
2780 ; SSE2-LABEL: min_le_v2i64c:
2782 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
2783 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
2784 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2785 ; SSE2-NEXT: movdqa %xmm0, %xmm3
2786 ; SSE2-NEXT: pxor %xmm2, %xmm3
2787 ; SSE2-NEXT: pxor %xmm1, %xmm0
2788 ; SSE2-NEXT: movdqa %xmm0, %xmm4
2789 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4
2790 ; SSE2-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2791 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm0
2792 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
2793 ; SSE2-NEXT: pand %xmm5, %xmm0
2794 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2795 ; SSE2-NEXT: por %xmm0, %xmm3
2796 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2797 ; SSE2-NEXT: pxor %xmm3, %xmm0
2798 ; SSE2-NEXT: pandn %xmm1, %xmm3
2799 ; SSE2-NEXT: pandn %xmm2, %xmm0
2800 ; SSE2-NEXT: por %xmm3, %xmm0
2803 ; SSE41-LABEL: min_le_v2i64c:
2805 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2806 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2807 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2808 ; SSE41-NEXT: movdqa %xmm0, %xmm3
2809 ; SSE41-NEXT: pxor %xmm1, %xmm3
2810 ; SSE41-NEXT: pxor %xmm2, %xmm0
2811 ; SSE41-NEXT: movdqa %xmm0, %xmm4
2812 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm4
2813 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2814 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm0
2815 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
2816 ; SSE41-NEXT: pand %xmm5, %xmm0
2817 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2818 ; SSE41-NEXT: por %xmm0, %xmm3
2819 ; SSE41-NEXT: pcmpeqd %xmm0, %xmm0
2820 ; SSE41-NEXT: pxor %xmm3, %xmm0
2821 ; SSE41-NEXT: blendvpd %xmm2, %xmm1
2822 ; SSE41-NEXT: movapd %xmm1, %xmm0
2825 ; SSE42-LABEL: min_le_v2i64c:
2827 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2828 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2829 ; SSE42-NEXT: movdqa %xmm2, %xmm3
2830 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm3
2831 ; SSE42-NEXT: pcmpeqd %xmm0, %xmm0
2832 ; SSE42-NEXT: pxor %xmm3, %xmm0
2833 ; SSE42-NEXT: blendvpd %xmm2, %xmm1
2834 ; SSE42-NEXT: movapd %xmm1, %xmm0
2837 ; AVX-LABEL: min_le_v2i64c:
2839 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
2840 ; AVX-NEXT: vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2841 ; AVX-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2
2842 ; AVX-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
2843 ; AVX-NEXT: vpxor %xmm3, %xmm2, %xmm2
2844 ; AVX-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
2846 %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
2847 %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
2848 %3 = icmp sle <2 x i64> %1, %2
2849 %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
2853 define <4 x i64> @min_le_v4i64c() {
2854 ; SSE2-LABEL: min_le_v4i64c:
2856 ; SSE2-NEXT: movdqa {{.*#+}} xmm10 = [18446744073709551609,18446744073709551615]
2857 ; SSE2-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
2858 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
2859 ; SSE2-NEXT: movdqa {{.*#+}} xmm9 = [7,1]
2860 ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
2861 ; SSE2-NEXT: movdqa %xmm7, %xmm0
2862 ; SSE2-NEXT: pxor %xmm9, %xmm0
2863 ; SSE2-NEXT: movdqa %xmm7, %xmm1
2864 ; SSE2-NEXT: pxor %xmm8, %xmm1
2865 ; SSE2-NEXT: movdqa %xmm1, %xmm6
2866 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm6
2867 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm6[0,0,2,2]
2868 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm1
2869 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,3,3]
2870 ; SSE2-NEXT: pand %xmm2, %xmm0
2871 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2872 ; SSE2-NEXT: por %xmm0, %xmm6
2873 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
2874 ; SSE2-NEXT: movdqa %xmm6, %xmm1
2875 ; SSE2-NEXT: pxor %xmm0, %xmm1
2876 ; SSE2-NEXT: movdqa %xmm7, %xmm2
2877 ; SSE2-NEXT: pxor %xmm5, %xmm2
2878 ; SSE2-NEXT: pxor %xmm10, %xmm7
2879 ; SSE2-NEXT: movdqa %xmm7, %xmm3
2880 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm3
2881 ; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm3[0,0,2,2]
2882 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm7
2883 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm7[1,1,3,3]
2884 ; SSE2-NEXT: pand %xmm4, %xmm2
2885 ; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm3[1,1,3,3]
2886 ; SSE2-NEXT: por %xmm2, %xmm3
2887 ; SSE2-NEXT: pxor %xmm3, %xmm0
2888 ; SSE2-NEXT: pandn %xmm10, %xmm3
2889 ; SSE2-NEXT: pandn %xmm5, %xmm0
2890 ; SSE2-NEXT: por %xmm3, %xmm0
2891 ; SSE2-NEXT: pandn %xmm8, %xmm6
2892 ; SSE2-NEXT: pandn %xmm9, %xmm1
2893 ; SSE2-NEXT: por %xmm6, %xmm1
2896 ; SSE41-LABEL: min_le_v4i64c:
2898 ; SSE41-NEXT: movdqa {{.*#+}} xmm9 = [18446744073709551609,18446744073709551615]
2899 ; SSE41-NEXT: movdqa {{.*#+}} xmm8 = [1,7]
2900 ; SSE41-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2901 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
2902 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2903 ; SSE41-NEXT: movdqa %xmm0, %xmm3
2904 ; SSE41-NEXT: pxor %xmm1, %xmm3
2905 ; SSE41-NEXT: movdqa %xmm0, %xmm6
2906 ; SSE41-NEXT: pxor %xmm8, %xmm6
2907 ; SSE41-NEXT: movdqa %xmm6, %xmm7
2908 ; SSE41-NEXT: pcmpgtd %xmm3, %xmm7
2909 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
2910 ; SSE41-NEXT: pcmpeqd %xmm3, %xmm6
2911 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2912 ; SSE41-NEXT: pand %xmm4, %xmm6
2913 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
2914 ; SSE41-NEXT: por %xmm6, %xmm3
2915 ; SSE41-NEXT: pcmpeqd %xmm4, %xmm4
2916 ; SSE41-NEXT: pxor %xmm4, %xmm3
2917 ; SSE41-NEXT: movdqa %xmm0, %xmm6
2918 ; SSE41-NEXT: pxor %xmm2, %xmm6
2919 ; SSE41-NEXT: pxor %xmm9, %xmm0
2920 ; SSE41-NEXT: movdqa %xmm0, %xmm7
2921 ; SSE41-NEXT: pcmpgtd %xmm6, %xmm7
2922 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm7[0,0,2,2]
2923 ; SSE41-NEXT: pcmpeqd %xmm6, %xmm0
2924 ; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
2925 ; SSE41-NEXT: pand %xmm5, %xmm6
2926 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
2927 ; SSE41-NEXT: por %xmm6, %xmm0
2928 ; SSE41-NEXT: pxor %xmm4, %xmm0
2929 ; SSE41-NEXT: blendvpd %xmm9, %xmm2
2930 ; SSE41-NEXT: movdqa %xmm3, %xmm0
2931 ; SSE41-NEXT: blendvpd %xmm8, %xmm1
2932 ; SSE41-NEXT: movapd %xmm2, %xmm0
2935 ; SSE42-LABEL: min_le_v4i64c:
2937 ; SSE42-NEXT: movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2938 ; SSE42-NEXT: movdqa {{.*#+}} xmm5 = [1,7]
2939 ; SSE42-NEXT: movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2940 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [7,1]
2941 ; SSE42-NEXT: movdqa %xmm5, %xmm3
2942 ; SSE42-NEXT: pcmpgtq %xmm1, %xmm3
2943 ; SSE42-NEXT: pcmpeqd %xmm6, %xmm6
2944 ; SSE42-NEXT: pxor %xmm6, %xmm3
2945 ; SSE42-NEXT: movdqa %xmm4, %xmm0
2946 ; SSE42-NEXT: pcmpgtq %xmm2, %xmm0
2947 ; SSE42-NEXT: pxor %xmm6, %xmm0
2948 ; SSE42-NEXT: blendvpd %xmm4, %xmm2
2949 ; SSE42-NEXT: movdqa %xmm3, %xmm0
2950 ; SSE42-NEXT: blendvpd %xmm5, %xmm1
2951 ; SSE42-NEXT: movapd %xmm2, %xmm0
2954 ; AVX1-LABEL: min_le_v4i64c:
2956 ; AVX1-NEXT: vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
2957 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,7]
2958 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
2959 ; AVX1-NEXT: vpcmpeqd %xmm2, %xmm2, %xmm2
2960 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm1
2961 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [18446744073709551609,18446744073709551615]
2962 ; AVX1-NEXT: vpcmpgtq {{.*}}(%rip), %xmm3, %xmm3
2963 ; AVX1-NEXT: vpxor %xmm2, %xmm3, %xmm2
2964 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm2, %ymm1
2965 ; AVX1-NEXT: vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
2968 ; AVX2-LABEL: min_le_v4i64c:
2970 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2971 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2972 ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
2973 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
2974 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2
2975 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2978 ; AVX512-LABEL: min_le_v4i64c:
2980 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2981 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2982 ; AVX512-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2
2983 ; AVX512-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3
2984 ; AVX512-NEXT: vpxor %ymm3, %ymm2, %ymm2
2985 ; AVX512-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2987 %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
2988 %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
2989 %3 = icmp sle <4 x i64> %1, %2
2990 %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
2994 define <4 x i32> @min_le_v4i32c() {
2995 ; SSE2-LABEL: min_le_v4i32c:
2997 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
2998 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,4294967289,7,1]
2999 ; SSE2-NEXT: movdqa %xmm1, %xmm3
3000 ; SSE2-NEXT: pcmpgtd %xmm2, %xmm3
3001 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
3002 ; SSE2-NEXT: pxor %xmm3, %xmm0
3003 ; SSE2-NEXT: pandn %xmm1, %xmm3
3004 ; SSE2-NEXT: pandn %xmm2, %xmm0
3005 ; SSE2-NEXT: por %xmm3, %xmm0
3008 ; SSE41-LABEL: min_le_v4i32c:
3010 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
3011 ; SSE41-NEXT: pminsd {{.*}}(%rip), %xmm0
3014 ; SSE42-LABEL: min_le_v4i32c:
3016 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
3017 ; SSE42-NEXT: pminsd {{.*}}(%rip), %xmm0
3020 ; AVX-LABEL: min_le_v4i32c:
3022 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
3023 ; AVX-NEXT: vpminsd {{.*}}(%rip), %xmm0, %xmm0
3025 %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
3026 %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 1, i32 0
3027 %3 = icmp sle <4 x i32> %1, %2
3028 %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
3032 define <8 x i32> @min_le_v8i32c() {
3033 ; SSE2-LABEL: min_le_v8i32c:
3035 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
3036 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [1,3,5,7]
3037 ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [1,4294967293,4294967291,4294967289]
3038 ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [7,5,3,1]
3039 ; SSE2-NEXT: movdqa %xmm3, %xmm6
3040 ; SSE2-NEXT: pcmpgtd %xmm5, %xmm6
3041 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
3042 ; SSE2-NEXT: movdqa %xmm6, %xmm1
3043 ; SSE2-NEXT: pxor %xmm0, %xmm1
3044 ; SSE2-NEXT: movdqa %xmm2, %xmm7
3045 ; SSE2-NEXT: pcmpgtd %xmm4, %xmm7
3046 ; SSE2-NEXT: pxor %xmm7, %xmm0
3047 ; SSE2-NEXT: pandn %xmm2, %xmm7
3048 ; SSE2-NEXT: pandn %xmm4, %xmm0
3049 ; SSE2-NEXT: por %xmm7, %xmm0
3050 ; SSE2-NEXT: pandn %xmm3, %xmm6
3051 ; SSE2-NEXT: pandn %xmm5, %xmm1
3052 ; SSE2-NEXT: por %xmm6, %xmm1
3055 ; SSE41-LABEL: min_le_v8i32c:
3057 ; SSE41-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
3058 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
3059 ; SSE41-NEXT: pminsd {{.*}}(%rip), %xmm0
3060 ; SSE41-NEXT: pminsd {{.*}}(%rip), %xmm1
3063 ; SSE42-LABEL: min_le_v8i32c:
3065 ; SSE42-NEXT: movdqa {{.*#+}} xmm1 = [1,3,5,7]
3066 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
3067 ; SSE42-NEXT: pminsd {{.*}}(%rip), %xmm0
3068 ; SSE42-NEXT: pminsd {{.*}}(%rip), %xmm1
3071 ; AVX1-LABEL: min_le_v8i32c:
3073 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
3074 ; AVX1-NEXT: vpminsd {{.*}}(%rip), %xmm0, %xmm0
3075 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
3076 ; AVX1-NEXT: vpminsd {{.*}}(%rip), %xmm1, %xmm1
3077 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
3080 ; AVX2-LABEL: min_le_v8i32c:
3082 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
3083 ; AVX2-NEXT: vpminsd {{.*}}(%rip), %ymm0, %ymm0
3086 ; AVX512-LABEL: min_le_v8i32c:
3088 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
3089 ; AVX512-NEXT: vpminsd {{.*}}(%rip), %ymm0, %ymm0
3091 %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
3092 %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 1, i32 0
3093 %3 = icmp sle <8 x i32> %1, %2
3094 %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
3098 define <8 x i16> @min_le_v8i16c() {
3099 ; SSE-LABEL: min_le_v8i16c:
3101 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
3102 ; SSE-NEXT: pminsw {{.*}}(%rip), %xmm0
3105 ; AVX-LABEL: min_le_v8i16c:
3107 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
3108 ; AVX-NEXT: vpminsw {{.*}}(%rip), %xmm0, %xmm0
3110 %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i16 0
3111 %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 1, i16 0
3112 %3 = icmp sle <8 x i16> %1, %2
3113 %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
3117 define <16 x i16> @min_le_v16i16c() {
3118 ; SSE-LABEL: min_le_v16i16c:
3120 ; SSE-NEXT: movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
3121 ; SSE-NEXT: movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
3122 ; SSE-NEXT: pminsw {{.*}}(%rip), %xmm0
3123 ; SSE-NEXT: pminsw {{.*}}(%rip), %xmm1
3126 ; AVX1-LABEL: min_le_v16i16c:
3128 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
3129 ; AVX1-NEXT: vpminsw {{.*}}(%rip), %xmm0, %xmm0
3130 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
3131 ; AVX1-NEXT: vpminsw {{.*}}(%rip), %xmm1, %xmm1
3132 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
3135 ; AVX2-LABEL: min_le_v16i16c:
3137 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
3138 ; AVX2-NEXT: vpminsw {{.*}}(%rip), %ymm0, %ymm0
3141 ; AVX512-LABEL: min_le_v16i16c:
3143 ; AVX512-NEXT: vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
3144 ; AVX512-NEXT: vpminsw {{.*}}(%rip), %ymm0, %ymm0
3146 %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i16 0
3147 %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 1, i16 0
3148 %3 = icmp sle <16 x i16> %1, %2
3149 %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
3153 define <16 x i8> @min_le_v16i8c() {
3154 ; SSE2-LABEL: min_le_v16i8c:
3156 ; SSE2-NEXT: movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3157 ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [1,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
3158 ; SSE2-NEXT: movdqa %xmm1, %xmm3
3159 ; SSE2-NEXT: pcmpgtb %xmm2, %xmm3
3160 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm0
3161 ; SSE2-NEXT: pxor %xmm3, %xmm0
3162 ; SSE2-NEXT: pandn %xmm1, %xmm3
3163 ; SSE2-NEXT: pandn %xmm2, %xmm0
3164 ; SSE2-NEXT: por %xmm3, %xmm0
3167 ; SSE41-LABEL: min_le_v16i8c:
3169 ; SSE41-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3170 ; SSE41-NEXT: pminsb {{.*}}(%rip), %xmm0
3173 ; SSE42-LABEL: min_le_v16i8c:
3175 ; SSE42-NEXT: movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3176 ; SSE42-NEXT: pminsb {{.*}}(%rip), %xmm0
3179 ; AVX-LABEL: min_le_v16i8c:
3181 ; AVX-NEXT: vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3182 ; AVX-NEXT: vpminsb {{.*}}(%rip), %xmm0, %xmm0
3184 %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i8 0
3185 %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 1, i8 0
3186 %3 = icmp sle <16 x i8> %1, %2
3187 %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2