Updated constants to give more useful min/max constant folding tests
[oota-llvm.git] / test / CodeGen / X86 / vec_minmax_sint.ll
1 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE2
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.1 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE41
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE42
4 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX1
5 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX2
6 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX512 --check-prefix=AVX512F
7 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512bw | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX512 --check-prefix=AVX512BW
8
9 ;
10 ; Signed Maximum (GT)
11 ;
12
13 define <2 x i64> @max_gt_v2i64(<2 x i64> %a, <2 x i64> %b) {
14 ; SSE2-LABEL: max_gt_v2i64:
15 ; SSE2:       # BB#0:
16 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
17 ; SSE2-NEXT:    movdqa %xmm1, %xmm3
18 ; SSE2-NEXT:    pxor %xmm2, %xmm3
19 ; SSE2-NEXT:    pxor %xmm0, %xmm2
20 ; SSE2-NEXT:    movdqa %xmm2, %xmm4
21 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
22 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
23 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm2
24 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
25 ; SSE2-NEXT:    pand %xmm5, %xmm2
26 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
27 ; SSE2-NEXT:    por %xmm2, %xmm3
28 ; SSE2-NEXT:    pand %xmm3, %xmm0
29 ; SSE2-NEXT:    pandn %xmm1, %xmm3
30 ; SSE2-NEXT:    por %xmm3, %xmm0
31 ; SSE2-NEXT:    retq
32 ;
33 ; SSE41-LABEL: max_gt_v2i64:
34 ; SSE41:       # BB#0:
35 ; SSE41-NEXT:    movdqa %xmm0, %xmm2
36 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
37 ; SSE41-NEXT:    movdqa %xmm1, %xmm3
38 ; SSE41-NEXT:    pxor %xmm0, %xmm3
39 ; SSE41-NEXT:    pxor %xmm2, %xmm0
40 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
41 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
42 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
43 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
44 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
45 ; SSE41-NEXT:    pand %xmm5, %xmm3
46 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
47 ; SSE41-NEXT:    por %xmm3, %xmm0
48 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
49 ; SSE41-NEXT:    movapd %xmm1, %xmm0
50 ; SSE41-NEXT:    retq
51 ;
52 ; SSE42-LABEL: max_gt_v2i64:
53 ; SSE42:       # BB#0:
54 ; SSE42-NEXT:    movdqa %xmm0, %xmm2
55 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm0
56 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
57 ; SSE42-NEXT:    movapd %xmm1, %xmm0
58 ; SSE42-NEXT:    retq
59 ;
60 ; AVX-LABEL: max_gt_v2i64:
61 ; AVX:       # BB#0:
62 ; AVX-NEXT:    vpcmpgtq %xmm1, %xmm0, %xmm2
63 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
64 ; AVX-NEXT:    retq
65   %1 = icmp sgt <2 x i64> %a, %b
66   %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
67   ret <2 x i64> %2
68 }
69
70 define <4 x i64> @max_gt_v4i64(<4 x i64> %a, <4 x i64> %b) {
71 ; SSE2-LABEL: max_gt_v4i64:
72 ; SSE2:       # BB#0:
73 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [2147483648,0,2147483648,0]
74 ; SSE2-NEXT:    movdqa %xmm3, %xmm5
75 ; SSE2-NEXT:    pxor %xmm4, %xmm5
76 ; SSE2-NEXT:    movdqa %xmm1, %xmm6
77 ; SSE2-NEXT:    pxor %xmm4, %xmm6
78 ; SSE2-NEXT:    movdqa %xmm6, %xmm7
79 ; SSE2-NEXT:    pcmpgtd %xmm5, %xmm7
80 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
81 ; SSE2-NEXT:    pcmpeqd %xmm5, %xmm6
82 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm6[1,1,3,3]
83 ; SSE2-NEXT:    pand %xmm8, %xmm5
84 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
85 ; SSE2-NEXT:    por %xmm5, %xmm6
86 ; SSE2-NEXT:    movdqa %xmm2, %xmm5
87 ; SSE2-NEXT:    pxor %xmm4, %xmm5
88 ; SSE2-NEXT:    pxor %xmm0, %xmm4
89 ; SSE2-NEXT:    movdqa %xmm4, %xmm7
90 ; SSE2-NEXT:    pcmpgtd %xmm5, %xmm7
91 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
92 ; SSE2-NEXT:    pcmpeqd %xmm5, %xmm4
93 ; SSE2-NEXT:    pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
94 ; SSE2-NEXT:    pand %xmm8, %xmm4
95 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
96 ; SSE2-NEXT:    por %xmm4, %xmm5
97 ; SSE2-NEXT:    pand %xmm5, %xmm0
98 ; SSE2-NEXT:    pandn %xmm2, %xmm5
99 ; SSE2-NEXT:    por %xmm5, %xmm0
100 ; SSE2-NEXT:    pand %xmm6, %xmm1
101 ; SSE2-NEXT:    pandn %xmm3, %xmm6
102 ; SSE2-NEXT:    por %xmm6, %xmm1
103 ; SSE2-NEXT:    retq
104 ;
105 ; SSE41-LABEL: max_gt_v4i64:
106 ; SSE41:       # BB#0:
107 ; SSE41-NEXT:    movdqa %xmm0, %xmm8
108 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
109 ; SSE41-NEXT:    movdqa %xmm3, %xmm5
110 ; SSE41-NEXT:    pxor %xmm0, %xmm5
111 ; SSE41-NEXT:    movdqa %xmm1, %xmm6
112 ; SSE41-NEXT:    pxor %xmm0, %xmm6
113 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
114 ; SSE41-NEXT:    pcmpgtd %xmm5, %xmm7
115 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
116 ; SSE41-NEXT:    pcmpeqd %xmm5, %xmm6
117 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
118 ; SSE41-NEXT:    pand %xmm4, %xmm6
119 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
120 ; SSE41-NEXT:    por %xmm6, %xmm5
121 ; SSE41-NEXT:    movdqa %xmm2, %xmm4
122 ; SSE41-NEXT:    pxor %xmm0, %xmm4
123 ; SSE41-NEXT:    pxor %xmm8, %xmm0
124 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
125 ; SSE41-NEXT:    pcmpgtd %xmm4, %xmm6
126 ; SSE41-NEXT:    pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
127 ; SSE41-NEXT:    pcmpeqd %xmm4, %xmm0
128 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
129 ; SSE41-NEXT:    pand %xmm7, %xmm4
130 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
131 ; SSE41-NEXT:    por %xmm4, %xmm0
132 ; SSE41-NEXT:    blendvpd %xmm8, %xmm2
133 ; SSE41-NEXT:    movdqa %xmm5, %xmm0
134 ; SSE41-NEXT:    blendvpd %xmm1, %xmm3
135 ; SSE41-NEXT:    movapd %xmm2, %xmm0
136 ; SSE41-NEXT:    movapd %xmm3, %xmm1
137 ; SSE41-NEXT:    retq
138 ;
139 ; SSE42-LABEL: max_gt_v4i64:
140 ; SSE42:       # BB#0:
141 ; SSE42-NEXT:    movdqa %xmm0, %xmm4
142 ; SSE42-NEXT:    movdqa %xmm1, %xmm5
143 ; SSE42-NEXT:    pcmpgtq %xmm3, %xmm5
144 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm0
145 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
146 ; SSE42-NEXT:    movdqa %xmm5, %xmm0
147 ; SSE42-NEXT:    blendvpd %xmm1, %xmm3
148 ; SSE42-NEXT:    movapd %xmm2, %xmm0
149 ; SSE42-NEXT:    movapd %xmm3, %xmm1
150 ; SSE42-NEXT:    retq
151 ;
152 ; AVX1-LABEL: max_gt_v4i64:
153 ; AVX1:       # BB#0:
154 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
155 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
156 ; AVX1-NEXT:    vpcmpgtq %xmm2, %xmm3, %xmm2
157 ; AVX1-NEXT:    vpcmpgtq %xmm1, %xmm0, %xmm3
158 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm3, %ymm2
159 ; AVX1-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
160 ; AVX1-NEXT:    retq
161 ;
162 ; AVX2-LABEL: max_gt_v4i64:
163 ; AVX2:       # BB#0:
164 ; AVX2-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
165 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
166 ; AVX2-NEXT:    retq
167 ;
168 ; AVX512-LABEL: max_gt_v4i64:
169 ; AVX512:       # BB#0:
170 ; AVX512-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
171 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
172 ; AVX512-NEXT:    retq
173   %1 = icmp sgt <4 x i64> %a, %b
174   %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
175   ret <4 x i64> %2
176 }
177
178 define <4 x i32> @max_gt_v4i32(<4 x i32> %a, <4 x i32> %b) {
179 ; SSE2-LABEL: max_gt_v4i32:
180 ; SSE2:       # BB#0:
181 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
182 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm2
183 ; SSE2-NEXT:    pand %xmm2, %xmm0
184 ; SSE2-NEXT:    pandn %xmm1, %xmm2
185 ; SSE2-NEXT:    por %xmm0, %xmm2
186 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
187 ; SSE2-NEXT:    retq
188 ;
189 ; SSE41-LABEL: max_gt_v4i32:
190 ; SSE41:       # BB#0:
191 ; SSE41-NEXT:    pmaxsd %xmm1, %xmm0
192 ; SSE41-NEXT:    retq
193 ;
194 ; SSE42-LABEL: max_gt_v4i32:
195 ; SSE42:       # BB#0:
196 ; SSE42-NEXT:    pmaxsd %xmm1, %xmm0
197 ; SSE42-NEXT:    retq
198 ;
199 ; AVX-LABEL: max_gt_v4i32:
200 ; AVX:       # BB#0:
201 ; AVX-NEXT:    vpmaxsd %xmm1, %xmm0, %xmm0
202 ; AVX-NEXT:    retq
203   %1 = icmp sgt <4 x i32> %a, %b
204   %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
205   ret <4 x i32> %2
206 }
207
208 define <8 x i32> @max_gt_v8i32(<8 x i32> %a, <8 x i32> %b) {
209 ; SSE2-LABEL: max_gt_v8i32:
210 ; SSE2:       # BB#0:
211 ; SSE2-NEXT:    movdqa %xmm1, %xmm4
212 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
213 ; SSE2-NEXT:    movdqa %xmm0, %xmm5
214 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm5
215 ; SSE2-NEXT:    pand %xmm5, %xmm0
216 ; SSE2-NEXT:    pandn %xmm2, %xmm5
217 ; SSE2-NEXT:    por %xmm0, %xmm5
218 ; SSE2-NEXT:    pand %xmm4, %xmm1
219 ; SSE2-NEXT:    pandn %xmm3, %xmm4
220 ; SSE2-NEXT:    por %xmm1, %xmm4
221 ; SSE2-NEXT:    movdqa %xmm5, %xmm0
222 ; SSE2-NEXT:    movdqa %xmm4, %xmm1
223 ; SSE2-NEXT:    retq
224 ;
225 ; SSE41-LABEL: max_gt_v8i32:
226 ; SSE41:       # BB#0:
227 ; SSE41-NEXT:    pmaxsd %xmm2, %xmm0
228 ; SSE41-NEXT:    pmaxsd %xmm3, %xmm1
229 ; SSE41-NEXT:    retq
230 ;
231 ; SSE42-LABEL: max_gt_v8i32:
232 ; SSE42:       # BB#0:
233 ; SSE42-NEXT:    pmaxsd %xmm2, %xmm0
234 ; SSE42-NEXT:    pmaxsd %xmm3, %xmm1
235 ; SSE42-NEXT:    retq
236 ;
237 ; AVX1-LABEL: max_gt_v8i32:
238 ; AVX1:       # BB#0:
239 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
240 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
241 ; AVX1-NEXT:    vpmaxsd %xmm2, %xmm3, %xmm2
242 ; AVX1-NEXT:    vpmaxsd %xmm1, %xmm0, %xmm0
243 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
244 ; AVX1-NEXT:    retq
245 ;
246 ; AVX2-LABEL: max_gt_v8i32:
247 ; AVX2:       # BB#0:
248 ; AVX2-NEXT:    vpmaxsd %ymm1, %ymm0, %ymm0
249 ; AVX2-NEXT:    retq
250 ;
251 ; AVX512-LABEL: max_gt_v8i32:
252 ; AVX512:       # BB#0:
253 ; AVX512-NEXT:    vpmaxsd %ymm1, %ymm0, %ymm0
254 ; AVX512-NEXT:    retq
255   %1 = icmp sgt <8 x i32> %a, %b
256   %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
257   ret <8 x i32> %2
258 }
259
260 define <8 x i16> @max_gt_v8i16(<8 x i16> %a, <8 x i16> %b) {
261 ; SSE-LABEL: max_gt_v8i16:
262 ; SSE:       # BB#0:
263 ; SSE-NEXT:    pmaxsw %xmm1, %xmm0
264 ; SSE-NEXT:    retq
265 ;
266 ; AVX-LABEL: max_gt_v8i16:
267 ; AVX:       # BB#0:
268 ; AVX-NEXT:    vpmaxsw %xmm1, %xmm0, %xmm0
269 ; AVX-NEXT:    retq
270   %1 = icmp sgt <8 x i16> %a, %b
271   %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
272   ret <8 x i16> %2
273 }
274
275 define <16 x i16> @max_gt_v16i16(<16 x i16> %a, <16 x i16> %b) {
276 ; SSE-LABEL: max_gt_v16i16:
277 ; SSE:       # BB#0:
278 ; SSE-NEXT:    pmaxsw %xmm2, %xmm0
279 ; SSE-NEXT:    pmaxsw %xmm3, %xmm1
280 ; SSE-NEXT:    retq
281 ;
282 ; AVX1-LABEL: max_gt_v16i16:
283 ; AVX1:       # BB#0:
284 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
285 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
286 ; AVX1-NEXT:    vpmaxsw %xmm2, %xmm3, %xmm2
287 ; AVX1-NEXT:    vpmaxsw %xmm1, %xmm0, %xmm0
288 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
289 ; AVX1-NEXT:    retq
290 ;
291 ; AVX2-LABEL: max_gt_v16i16:
292 ; AVX2:       # BB#0:
293 ; AVX2-NEXT:    vpmaxsw %ymm1, %ymm0, %ymm0
294 ; AVX2-NEXT:    retq
295 ;
296 ; AVX512-LABEL: max_gt_v16i16:
297 ; AVX512:       # BB#0:
298 ; AVX512-NEXT:    vpmaxsw %ymm1, %ymm0, %ymm0
299 ; AVX512-NEXT:    retq
300   %1 = icmp sgt <16 x i16> %a, %b
301   %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
302   ret <16 x i16> %2
303 }
304
305 define <16 x i8> @max_gt_v16i8(<16 x i8> %a, <16 x i8> %b) {
306 ; SSE2-LABEL: max_gt_v16i8:
307 ; SSE2:       # BB#0:
308 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
309 ; SSE2-NEXT:    pcmpgtb %xmm1, %xmm2
310 ; SSE2-NEXT:    pand %xmm2, %xmm0
311 ; SSE2-NEXT:    pandn %xmm1, %xmm2
312 ; SSE2-NEXT:    por %xmm0, %xmm2
313 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
314 ; SSE2-NEXT:    retq
315 ;
316 ; SSE41-LABEL: max_gt_v16i8:
317 ; SSE41:       # BB#0:
318 ; SSE41-NEXT:    pmaxsb %xmm1, %xmm0
319 ; SSE41-NEXT:    retq
320 ;
321 ; SSE42-LABEL: max_gt_v16i8:
322 ; SSE42:       # BB#0:
323 ; SSE42-NEXT:    pmaxsb %xmm1, %xmm0
324 ; SSE42-NEXT:    retq
325 ;
326 ; AVX-LABEL: max_gt_v16i8:
327 ; AVX:       # BB#0:
328 ; AVX-NEXT:    vpmaxsb %xmm1, %xmm0, %xmm0
329 ; AVX-NEXT:    retq
330   %1 = icmp sgt <16 x i8> %a, %b
331   %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
332   ret <16 x i8> %2
333 }
334
335 define <32 x i8> @max_gt_v32i8(<32 x i8> %a, <32 x i8> %b) {
336 ; SSE2-LABEL: max_gt_v32i8:
337 ; SSE2:       # BB#0:
338 ; SSE2-NEXT:    movdqa %xmm1, %xmm4
339 ; SSE2-NEXT:    pcmpgtb %xmm3, %xmm4
340 ; SSE2-NEXT:    movdqa %xmm0, %xmm5
341 ; SSE2-NEXT:    pcmpgtb %xmm2, %xmm5
342 ; SSE2-NEXT:    pand %xmm5, %xmm0
343 ; SSE2-NEXT:    pandn %xmm2, %xmm5
344 ; SSE2-NEXT:    por %xmm0, %xmm5
345 ; SSE2-NEXT:    pand %xmm4, %xmm1
346 ; SSE2-NEXT:    pandn %xmm3, %xmm4
347 ; SSE2-NEXT:    por %xmm1, %xmm4
348 ; SSE2-NEXT:    movdqa %xmm5, %xmm0
349 ; SSE2-NEXT:    movdqa %xmm4, %xmm1
350 ; SSE2-NEXT:    retq
351 ;
352 ; SSE41-LABEL: max_gt_v32i8:
353 ; SSE41:       # BB#0:
354 ; SSE41-NEXT:    pmaxsb %xmm2, %xmm0
355 ; SSE41-NEXT:    pmaxsb %xmm3, %xmm1
356 ; SSE41-NEXT:    retq
357 ;
358 ; SSE42-LABEL: max_gt_v32i8:
359 ; SSE42:       # BB#0:
360 ; SSE42-NEXT:    pmaxsb %xmm2, %xmm0
361 ; SSE42-NEXT:    pmaxsb %xmm3, %xmm1
362 ; SSE42-NEXT:    retq
363 ;
364 ; AVX1-LABEL: max_gt_v32i8:
365 ; AVX1:       # BB#0:
366 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
367 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
368 ; AVX1-NEXT:    vpmaxsb %xmm2, %xmm3, %xmm2
369 ; AVX1-NEXT:    vpmaxsb %xmm1, %xmm0, %xmm0
370 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
371 ; AVX1-NEXT:    retq
372 ;
373 ; AVX2-LABEL: max_gt_v32i8:
374 ; AVX2:       # BB#0:
375 ; AVX2-NEXT:    vpmaxsb %ymm1, %ymm0, %ymm0
376 ; AVX2-NEXT:    retq
377 ;
378 ; AVX512-LABEL: max_gt_v32i8:
379 ; AVX512:       # BB#0:
380 ; AVX512-NEXT:    vpmaxsb %ymm1, %ymm0, %ymm0
381 ; AVX512-NEXT:    retq
382   %1 = icmp sgt <32 x i8> %a, %b
383   %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
384   ret <32 x i8> %2
385 }
386
387 ;
388 ; Signed Maximum (GE)
389 ;
390
391 define <2 x i64> @max_ge_v2i64(<2 x i64> %a, <2 x i64> %b) {
392 ; SSE2-LABEL: max_ge_v2i64:
393 ; SSE2:       # BB#0:
394 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
395 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
396 ; SSE2-NEXT:    pxor %xmm2, %xmm3
397 ; SSE2-NEXT:    pxor %xmm1, %xmm2
398 ; SSE2-NEXT:    movdqa %xmm2, %xmm4
399 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
400 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
401 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm2
402 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
403 ; SSE2-NEXT:    pand %xmm5, %xmm2
404 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
405 ; SSE2-NEXT:    por %xmm2, %xmm3
406 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm2
407 ; SSE2-NEXT:    pxor %xmm3, %xmm2
408 ; SSE2-NEXT:    pandn %xmm0, %xmm3
409 ; SSE2-NEXT:    pandn %xmm1, %xmm2
410 ; SSE2-NEXT:    por %xmm3, %xmm2
411 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
412 ; SSE2-NEXT:    retq
413 ;
414 ; SSE41-LABEL: max_ge_v2i64:
415 ; SSE41:       # BB#0:
416 ; SSE41-NEXT:    movdqa %xmm0, %xmm2
417 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
418 ; SSE41-NEXT:    movdqa %xmm2, %xmm3
419 ; SSE41-NEXT:    pxor %xmm0, %xmm3
420 ; SSE41-NEXT:    pxor %xmm1, %xmm0
421 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
422 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
423 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
424 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
425 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
426 ; SSE41-NEXT:    pand %xmm5, %xmm0
427 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
428 ; SSE41-NEXT:    por %xmm0, %xmm3
429 ; SSE41-NEXT:    pcmpeqd %xmm0, %xmm0
430 ; SSE41-NEXT:    pxor %xmm3, %xmm0
431 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
432 ; SSE41-NEXT:    movapd %xmm1, %xmm0
433 ; SSE41-NEXT:    retq
434 ;
435 ; SSE42-LABEL: max_ge_v2i64:
436 ; SSE42:       # BB#0:
437 ; SSE42-NEXT:    movdqa %xmm0, %xmm2
438 ; SSE42-NEXT:    movdqa %xmm1, %xmm3
439 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm3
440 ; SSE42-NEXT:    pcmpeqd %xmm0, %xmm0
441 ; SSE42-NEXT:    pxor %xmm3, %xmm0
442 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
443 ; SSE42-NEXT:    movapd %xmm1, %xmm0
444 ; SSE42-NEXT:    retq
445 ;
446 ; AVX-LABEL: max_ge_v2i64:
447 ; AVX:       # BB#0:
448 ; AVX-NEXT:    vpcmpgtq %xmm0, %xmm1, %xmm2
449 ; AVX-NEXT:    vpcmpeqd %xmm3, %xmm3, %xmm3
450 ; AVX-NEXT:    vpxor %xmm3, %xmm2, %xmm2
451 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
452 ; AVX-NEXT:    retq
453   %1 = icmp sge <2 x i64> %a, %b
454   %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
455   ret <2 x i64> %2
456 }
457
458 define <4 x i64> @max_ge_v4i64(<4 x i64> %a, <4 x i64> %b) {
459 ; SSE2-LABEL: max_ge_v4i64:
460 ; SSE2:       # BB#0:
461 ; SSE2-NEXT:    movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
462 ; SSE2-NEXT:    movdqa %xmm1, %xmm4
463 ; SSE2-NEXT:    pxor %xmm7, %xmm4
464 ; SSE2-NEXT:    movdqa %xmm3, %xmm5
465 ; SSE2-NEXT:    pxor %xmm7, %xmm5
466 ; SSE2-NEXT:    movdqa %xmm5, %xmm6
467 ; SSE2-NEXT:    pcmpgtd %xmm4, %xmm6
468 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm6[0,0,2,2]
469 ; SSE2-NEXT:    pcmpeqd %xmm4, %xmm5
470 ; SSE2-NEXT:    pshufd {{.*#+}} xmm4 = xmm5[1,1,3,3]
471 ; SSE2-NEXT:    pand %xmm8, %xmm4
472 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm6[1,1,3,3]
473 ; SSE2-NEXT:    por %xmm4, %xmm8
474 ; SSE2-NEXT:    pcmpeqd %xmm4, %xmm4
475 ; SSE2-NEXT:    movdqa %xmm8, %xmm9
476 ; SSE2-NEXT:    pxor %xmm4, %xmm9
477 ; SSE2-NEXT:    movdqa %xmm0, %xmm6
478 ; SSE2-NEXT:    pxor %xmm7, %xmm6
479 ; SSE2-NEXT:    pxor %xmm2, %xmm7
480 ; SSE2-NEXT:    movdqa %xmm7, %xmm5
481 ; SSE2-NEXT:    pcmpgtd %xmm6, %xmm5
482 ; SSE2-NEXT:    pshufd {{.*#+}} xmm10 = xmm5[0,0,2,2]
483 ; SSE2-NEXT:    pcmpeqd %xmm6, %xmm7
484 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
485 ; SSE2-NEXT:    pand %xmm10, %xmm6
486 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm5[1,1,3,3]
487 ; SSE2-NEXT:    por %xmm6, %xmm5
488 ; SSE2-NEXT:    pxor %xmm5, %xmm4
489 ; SSE2-NEXT:    pandn %xmm0, %xmm5
490 ; SSE2-NEXT:    pandn %xmm2, %xmm4
491 ; SSE2-NEXT:    por %xmm5, %xmm4
492 ; SSE2-NEXT:    pandn %xmm1, %xmm8
493 ; SSE2-NEXT:    pandn %xmm3, %xmm9
494 ; SSE2-NEXT:    por %xmm8, %xmm9
495 ; SSE2-NEXT:    movdqa %xmm4, %xmm0
496 ; SSE2-NEXT:    movdqa %xmm9, %xmm1
497 ; SSE2-NEXT:    retq
498 ;
499 ; SSE41-LABEL: max_ge_v4i64:
500 ; SSE41:       # BB#0:
501 ; SSE41-NEXT:    movdqa %xmm0, %xmm8
502 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
503 ; SSE41-NEXT:    movdqa %xmm1, %xmm5
504 ; SSE41-NEXT:    pxor %xmm0, %xmm5
505 ; SSE41-NEXT:    movdqa %xmm3, %xmm6
506 ; SSE41-NEXT:    pxor %xmm0, %xmm6
507 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
508 ; SSE41-NEXT:    pcmpgtd %xmm5, %xmm7
509 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
510 ; SSE41-NEXT:    pcmpeqd %xmm5, %xmm6
511 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
512 ; SSE41-NEXT:    pand %xmm4, %xmm6
513 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
514 ; SSE41-NEXT:    por %xmm6, %xmm5
515 ; SSE41-NEXT:    pcmpeqd %xmm9, %xmm9
516 ; SSE41-NEXT:    pxor %xmm9, %xmm5
517 ; SSE41-NEXT:    movdqa %xmm8, %xmm6
518 ; SSE41-NEXT:    pxor %xmm0, %xmm6
519 ; SSE41-NEXT:    pxor %xmm2, %xmm0
520 ; SSE41-NEXT:    movdqa %xmm0, %xmm7
521 ; SSE41-NEXT:    pcmpgtd %xmm6, %xmm7
522 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
523 ; SSE41-NEXT:    pcmpeqd %xmm6, %xmm0
524 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
525 ; SSE41-NEXT:    pand %xmm4, %xmm6
526 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
527 ; SSE41-NEXT:    por %xmm6, %xmm0
528 ; SSE41-NEXT:    pxor %xmm9, %xmm0
529 ; SSE41-NEXT:    blendvpd %xmm8, %xmm2
530 ; SSE41-NEXT:    movdqa %xmm5, %xmm0
531 ; SSE41-NEXT:    blendvpd %xmm1, %xmm3
532 ; SSE41-NEXT:    movapd %xmm2, %xmm0
533 ; SSE41-NEXT:    movapd %xmm3, %xmm1
534 ; SSE41-NEXT:    retq
535 ;
536 ; SSE42-LABEL: max_ge_v4i64:
537 ; SSE42:       # BB#0:
538 ; SSE42-NEXT:    movdqa %xmm0, %xmm4
539 ; SSE42-NEXT:    movdqa %xmm3, %xmm5
540 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm5
541 ; SSE42-NEXT:    pcmpeqd %xmm0, %xmm0
542 ; SSE42-NEXT:    pxor %xmm0, %xmm5
543 ; SSE42-NEXT:    movdqa %xmm2, %xmm6
544 ; SSE42-NEXT:    pcmpgtq %xmm4, %xmm6
545 ; SSE42-NEXT:    pxor %xmm6, %xmm0
546 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
547 ; SSE42-NEXT:    movdqa %xmm5, %xmm0
548 ; SSE42-NEXT:    blendvpd %xmm1, %xmm3
549 ; SSE42-NEXT:    movapd %xmm2, %xmm0
550 ; SSE42-NEXT:    movapd %xmm3, %xmm1
551 ; SSE42-NEXT:    retq
552 ;
553 ; AVX1-LABEL: max_ge_v4i64:
554 ; AVX1:       # BB#0:
555 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm2
556 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm3
557 ; AVX1-NEXT:    vpcmpgtq %xmm2, %xmm3, %xmm2
558 ; AVX1-NEXT:    vpcmpeqd %xmm3, %xmm3, %xmm3
559 ; AVX1-NEXT:    vpxor %xmm3, %xmm2, %xmm2
560 ; AVX1-NEXT:    vpcmpgtq %xmm0, %xmm1, %xmm4
561 ; AVX1-NEXT:    vpxor %xmm3, %xmm4, %xmm3
562 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm3, %ymm2
563 ; AVX1-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
564 ; AVX1-NEXT:    retq
565 ;
566 ; AVX2-LABEL: max_ge_v4i64:
567 ; AVX2:       # BB#0:
568 ; AVX2-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
569 ; AVX2-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
570 ; AVX2-NEXT:    vpxor %ymm3, %ymm2, %ymm2
571 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
572 ; AVX2-NEXT:    retq
573 ;
574 ; AVX512-LABEL: max_ge_v4i64:
575 ; AVX512:       # BB#0:
576 ; AVX512-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
577 ; AVX512-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
578 ; AVX512-NEXT:    vpxor %ymm3, %ymm2, %ymm2
579 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
580 ; AVX512-NEXT:    retq
581   %1 = icmp sge <4 x i64> %a, %b
582   %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
583   ret <4 x i64> %2
584 }
585
586 define <4 x i32> @max_ge_v4i32(<4 x i32> %a, <4 x i32> %b) {
587 ; SSE2-LABEL: max_ge_v4i32:
588 ; SSE2:       # BB#0:
589 ; SSE2-NEXT:    movdqa %xmm1, %xmm3
590 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm3
591 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm2
592 ; SSE2-NEXT:    pxor %xmm3, %xmm2
593 ; SSE2-NEXT:    pandn %xmm0, %xmm3
594 ; SSE2-NEXT:    pandn %xmm1, %xmm2
595 ; SSE2-NEXT:    por %xmm3, %xmm2
596 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
597 ; SSE2-NEXT:    retq
598 ;
599 ; SSE41-LABEL: max_ge_v4i32:
600 ; SSE41:       # BB#0:
601 ; SSE41-NEXT:    pmaxsd %xmm1, %xmm0
602 ; SSE41-NEXT:    retq
603 ;
604 ; SSE42-LABEL: max_ge_v4i32:
605 ; SSE42:       # BB#0:
606 ; SSE42-NEXT:    pmaxsd %xmm1, %xmm0
607 ; SSE42-NEXT:    retq
608 ;
609 ; AVX-LABEL: max_ge_v4i32:
610 ; AVX:       # BB#0:
611 ; AVX-NEXT:    vpmaxsd %xmm1, %xmm0, %xmm0
612 ; AVX-NEXT:    retq
613   %1 = icmp sge <4 x i32> %a, %b
614   %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
615   ret <4 x i32> %2
616 }
617
618 define <8 x i32> @max_ge_v8i32(<8 x i32> %a, <8 x i32> %b) {
619 ; SSE2-LABEL: max_ge_v8i32:
620 ; SSE2:       # BB#0:
621 ; SSE2-NEXT:    movdqa %xmm3, %xmm6
622 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm6
623 ; SSE2-NEXT:    pcmpeqd %xmm4, %xmm4
624 ; SSE2-NEXT:    movdqa %xmm6, %xmm5
625 ; SSE2-NEXT:    pxor %xmm4, %xmm5
626 ; SSE2-NEXT:    movdqa %xmm2, %xmm7
627 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm7
628 ; SSE2-NEXT:    pxor %xmm7, %xmm4
629 ; SSE2-NEXT:    pandn %xmm0, %xmm7
630 ; SSE2-NEXT:    pandn %xmm2, %xmm4
631 ; SSE2-NEXT:    por %xmm7, %xmm4
632 ; SSE2-NEXT:    pandn %xmm1, %xmm6
633 ; SSE2-NEXT:    pandn %xmm3, %xmm5
634 ; SSE2-NEXT:    por %xmm6, %xmm5
635 ; SSE2-NEXT:    movdqa %xmm4, %xmm0
636 ; SSE2-NEXT:    movdqa %xmm5, %xmm1
637 ; SSE2-NEXT:    retq
638 ;
639 ; SSE41-LABEL: max_ge_v8i32:
640 ; SSE41:       # BB#0:
641 ; SSE41-NEXT:    pmaxsd %xmm2, %xmm0
642 ; SSE41-NEXT:    pmaxsd %xmm3, %xmm1
643 ; SSE41-NEXT:    retq
644 ;
645 ; SSE42-LABEL: max_ge_v8i32:
646 ; SSE42:       # BB#0:
647 ; SSE42-NEXT:    pmaxsd %xmm2, %xmm0
648 ; SSE42-NEXT:    pmaxsd %xmm3, %xmm1
649 ; SSE42-NEXT:    retq
650 ;
651 ; AVX1-LABEL: max_ge_v8i32:
652 ; AVX1:       # BB#0:
653 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
654 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
655 ; AVX1-NEXT:    vpmaxsd %xmm2, %xmm3, %xmm2
656 ; AVX1-NEXT:    vpmaxsd %xmm1, %xmm0, %xmm0
657 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
658 ; AVX1-NEXT:    retq
659 ;
660 ; AVX2-LABEL: max_ge_v8i32:
661 ; AVX2:       # BB#0:
662 ; AVX2-NEXT:    vpmaxsd %ymm1, %ymm0, %ymm0
663 ; AVX2-NEXT:    retq
664 ;
665 ; AVX512-LABEL: max_ge_v8i32:
666 ; AVX512:       # BB#0:
667 ; AVX512-NEXT:    vpmaxsd %ymm1, %ymm0, %ymm0
668 ; AVX512-NEXT:    retq
669   %1 = icmp sge <8 x i32> %a, %b
670   %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
671   ret <8 x i32> %2
672 }
673
674 define <8 x i16> @max_ge_v8i16(<8 x i16> %a, <8 x i16> %b) {
675 ; SSE-LABEL: max_ge_v8i16:
676 ; SSE:       # BB#0:
677 ; SSE-NEXT:    pmaxsw %xmm1, %xmm0
678 ; SSE-NEXT:    retq
679 ;
680 ; AVX-LABEL: max_ge_v8i16:
681 ; AVX:       # BB#0:
682 ; AVX-NEXT:    vpmaxsw %xmm1, %xmm0, %xmm0
683 ; AVX-NEXT:    retq
684   %1 = icmp sge <8 x i16> %a, %b
685   %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
686   ret <8 x i16> %2
687 }
688
689 define <16 x i16> @max_ge_v16i16(<16 x i16> %a, <16 x i16> %b) {
690 ; SSE-LABEL: max_ge_v16i16:
691 ; SSE:       # BB#0:
692 ; SSE-NEXT:    pmaxsw %xmm2, %xmm0
693 ; SSE-NEXT:    pmaxsw %xmm3, %xmm1
694 ; SSE-NEXT:    retq
695 ;
696 ; AVX1-LABEL: max_ge_v16i16:
697 ; AVX1:       # BB#0:
698 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
699 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
700 ; AVX1-NEXT:    vpmaxsw %xmm2, %xmm3, %xmm2
701 ; AVX1-NEXT:    vpmaxsw %xmm1, %xmm0, %xmm0
702 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
703 ; AVX1-NEXT:    retq
704 ;
705 ; AVX2-LABEL: max_ge_v16i16:
706 ; AVX2:       # BB#0:
707 ; AVX2-NEXT:    vpmaxsw %ymm1, %ymm0, %ymm0
708 ; AVX2-NEXT:    retq
709 ;
710 ; AVX512-LABEL: max_ge_v16i16:
711 ; AVX512:       # BB#0:
712 ; AVX512-NEXT:    vpmaxsw %ymm1, %ymm0, %ymm0
713 ; AVX512-NEXT:    retq
714   %1 = icmp sge <16 x i16> %a, %b
715   %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
716   ret <16 x i16> %2
717 }
718
719 define <16 x i8> @max_ge_v16i8(<16 x i8> %a, <16 x i8> %b) {
720 ; SSE2-LABEL: max_ge_v16i8:
721 ; SSE2:       # BB#0:
722 ; SSE2-NEXT:    movdqa %xmm1, %xmm3
723 ; SSE2-NEXT:    pcmpgtb %xmm0, %xmm3
724 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm2
725 ; SSE2-NEXT:    pxor %xmm3, %xmm2
726 ; SSE2-NEXT:    pandn %xmm0, %xmm3
727 ; SSE2-NEXT:    pandn %xmm1, %xmm2
728 ; SSE2-NEXT:    por %xmm3, %xmm2
729 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
730 ; SSE2-NEXT:    retq
731 ;
732 ; SSE41-LABEL: max_ge_v16i8:
733 ; SSE41:       # BB#0:
734 ; SSE41-NEXT:    pmaxsb %xmm1, %xmm0
735 ; SSE41-NEXT:    retq
736 ;
737 ; SSE42-LABEL: max_ge_v16i8:
738 ; SSE42:       # BB#0:
739 ; SSE42-NEXT:    pmaxsb %xmm1, %xmm0
740 ; SSE42-NEXT:    retq
741 ;
742 ; AVX-LABEL: max_ge_v16i8:
743 ; AVX:       # BB#0:
744 ; AVX-NEXT:    vpmaxsb %xmm1, %xmm0, %xmm0
745 ; AVX-NEXT:    retq
746   %1 = icmp sge <16 x i8> %a, %b
747   %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
748   ret <16 x i8> %2
749 }
750
751 define <32 x i8> @max_ge_v32i8(<32 x i8> %a, <32 x i8> %b) {
752 ; SSE2-LABEL: max_ge_v32i8:
753 ; SSE2:       # BB#0:
754 ; SSE2-NEXT:    movdqa %xmm3, %xmm6
755 ; SSE2-NEXT:    pcmpgtb %xmm1, %xmm6
756 ; SSE2-NEXT:    pcmpeqd %xmm4, %xmm4
757 ; SSE2-NEXT:    movdqa %xmm6, %xmm5
758 ; SSE2-NEXT:    pxor %xmm4, %xmm5
759 ; SSE2-NEXT:    movdqa %xmm2, %xmm7
760 ; SSE2-NEXT:    pcmpgtb %xmm0, %xmm7
761 ; SSE2-NEXT:    pxor %xmm7, %xmm4
762 ; SSE2-NEXT:    pandn %xmm0, %xmm7
763 ; SSE2-NEXT:    pandn %xmm2, %xmm4
764 ; SSE2-NEXT:    por %xmm7, %xmm4
765 ; SSE2-NEXT:    pandn %xmm1, %xmm6
766 ; SSE2-NEXT:    pandn %xmm3, %xmm5
767 ; SSE2-NEXT:    por %xmm6, %xmm5
768 ; SSE2-NEXT:    movdqa %xmm4, %xmm0
769 ; SSE2-NEXT:    movdqa %xmm5, %xmm1
770 ; SSE2-NEXT:    retq
771 ;
772 ; SSE41-LABEL: max_ge_v32i8:
773 ; SSE41:       # BB#0:
774 ; SSE41-NEXT:    pmaxsb %xmm2, %xmm0
775 ; SSE41-NEXT:    pmaxsb %xmm3, %xmm1
776 ; SSE41-NEXT:    retq
777 ;
778 ; SSE42-LABEL: max_ge_v32i8:
779 ; SSE42:       # BB#0:
780 ; SSE42-NEXT:    pmaxsb %xmm2, %xmm0
781 ; SSE42-NEXT:    pmaxsb %xmm3, %xmm1
782 ; SSE42-NEXT:    retq
783 ;
784 ; AVX1-LABEL: max_ge_v32i8:
785 ; AVX1:       # BB#0:
786 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
787 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
788 ; AVX1-NEXT:    vpmaxsb %xmm2, %xmm3, %xmm2
789 ; AVX1-NEXT:    vpmaxsb %xmm1, %xmm0, %xmm0
790 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
791 ; AVX1-NEXT:    retq
792 ;
793 ; AVX2-LABEL: max_ge_v32i8:
794 ; AVX2:       # BB#0:
795 ; AVX2-NEXT:    vpmaxsb %ymm1, %ymm0, %ymm0
796 ; AVX2-NEXT:    retq
797 ;
798 ; AVX512-LABEL: max_ge_v32i8:
799 ; AVX512:       # BB#0:
800 ; AVX512-NEXT:    vpmaxsb %ymm1, %ymm0, %ymm0
801 ; AVX512-NEXT:    retq
802   %1 = icmp sge <32 x i8> %a, %b
803   %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
804   ret <32 x i8> %2
805 }
806
807 ;
808 ; Signed Minimum (LT)
809 ;
810
811 define <2 x i64> @min_lt_v2i64(<2 x i64> %a, <2 x i64> %b) {
812 ; SSE2-LABEL: min_lt_v2i64:
813 ; SSE2:       # BB#0:
814 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
815 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
816 ; SSE2-NEXT:    pxor %xmm2, %xmm3
817 ; SSE2-NEXT:    pxor %xmm1, %xmm2
818 ; SSE2-NEXT:    movdqa %xmm2, %xmm4
819 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
820 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
821 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm2
822 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
823 ; SSE2-NEXT:    pand %xmm5, %xmm2
824 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
825 ; SSE2-NEXT:    por %xmm2, %xmm3
826 ; SSE2-NEXT:    pand %xmm3, %xmm0
827 ; SSE2-NEXT:    pandn %xmm1, %xmm3
828 ; SSE2-NEXT:    por %xmm3, %xmm0
829 ; SSE2-NEXT:    retq
830 ;
831 ; SSE41-LABEL: min_lt_v2i64:
832 ; SSE41:       # BB#0:
833 ; SSE41-NEXT:    movdqa %xmm0, %xmm2
834 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
835 ; SSE41-NEXT:    movdqa %xmm2, %xmm3
836 ; SSE41-NEXT:    pxor %xmm0, %xmm3
837 ; SSE41-NEXT:    pxor %xmm1, %xmm0
838 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
839 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
840 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
841 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
842 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
843 ; SSE41-NEXT:    pand %xmm5, %xmm3
844 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
845 ; SSE41-NEXT:    por %xmm3, %xmm0
846 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
847 ; SSE41-NEXT:    movapd %xmm1, %xmm0
848 ; SSE41-NEXT:    retq
849 ;
850 ; SSE42-LABEL: min_lt_v2i64:
851 ; SSE42:       # BB#0:
852 ; SSE42-NEXT:    movdqa %xmm0, %xmm2
853 ; SSE42-NEXT:    movdqa %xmm1, %xmm0
854 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm0
855 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
856 ; SSE42-NEXT:    movapd %xmm1, %xmm0
857 ; SSE42-NEXT:    retq
858 ;
859 ; AVX-LABEL: min_lt_v2i64:
860 ; AVX:       # BB#0:
861 ; AVX-NEXT:    vpcmpgtq %xmm0, %xmm1, %xmm2
862 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
863 ; AVX-NEXT:    retq
864   %1 = icmp slt <2 x i64> %a, %b
865   %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
866   ret <2 x i64> %2
867 }
868
869 define <4 x i64> @min_lt_v4i64(<4 x i64> %a, <4 x i64> %b) {
870 ; SSE2-LABEL: min_lt_v4i64:
871 ; SSE2:       # BB#0:
872 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [2147483648,0,2147483648,0]
873 ; SSE2-NEXT:    movdqa %xmm1, %xmm5
874 ; SSE2-NEXT:    pxor %xmm4, %xmm5
875 ; SSE2-NEXT:    movdqa %xmm3, %xmm6
876 ; SSE2-NEXT:    pxor %xmm4, %xmm6
877 ; SSE2-NEXT:    movdqa %xmm6, %xmm7
878 ; SSE2-NEXT:    pcmpgtd %xmm5, %xmm7
879 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
880 ; SSE2-NEXT:    pcmpeqd %xmm5, %xmm6
881 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm6[1,1,3,3]
882 ; SSE2-NEXT:    pand %xmm8, %xmm5
883 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
884 ; SSE2-NEXT:    por %xmm5, %xmm6
885 ; SSE2-NEXT:    movdqa %xmm0, %xmm5
886 ; SSE2-NEXT:    pxor %xmm4, %xmm5
887 ; SSE2-NEXT:    pxor %xmm2, %xmm4
888 ; SSE2-NEXT:    movdqa %xmm4, %xmm7
889 ; SSE2-NEXT:    pcmpgtd %xmm5, %xmm7
890 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm7[0,0,2,2]
891 ; SSE2-NEXT:    pcmpeqd %xmm5, %xmm4
892 ; SSE2-NEXT:    pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
893 ; SSE2-NEXT:    pand %xmm8, %xmm4
894 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
895 ; SSE2-NEXT:    por %xmm4, %xmm5
896 ; SSE2-NEXT:    pand %xmm5, %xmm0
897 ; SSE2-NEXT:    pandn %xmm2, %xmm5
898 ; SSE2-NEXT:    por %xmm5, %xmm0
899 ; SSE2-NEXT:    pand %xmm6, %xmm1
900 ; SSE2-NEXT:    pandn %xmm3, %xmm6
901 ; SSE2-NEXT:    por %xmm6, %xmm1
902 ; SSE2-NEXT:    retq
903 ;
904 ; SSE41-LABEL: min_lt_v4i64:
905 ; SSE41:       # BB#0:
906 ; SSE41-NEXT:    movdqa %xmm0, %xmm8
907 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
908 ; SSE41-NEXT:    movdqa %xmm1, %xmm5
909 ; SSE41-NEXT:    pxor %xmm0, %xmm5
910 ; SSE41-NEXT:    movdqa %xmm3, %xmm6
911 ; SSE41-NEXT:    pxor %xmm0, %xmm6
912 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
913 ; SSE41-NEXT:    pcmpgtd %xmm5, %xmm7
914 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
915 ; SSE41-NEXT:    pcmpeqd %xmm5, %xmm6
916 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
917 ; SSE41-NEXT:    pand %xmm4, %xmm6
918 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
919 ; SSE41-NEXT:    por %xmm6, %xmm5
920 ; SSE41-NEXT:    movdqa %xmm8, %xmm4
921 ; SSE41-NEXT:    pxor %xmm0, %xmm4
922 ; SSE41-NEXT:    pxor %xmm2, %xmm0
923 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
924 ; SSE41-NEXT:    pcmpgtd %xmm4, %xmm6
925 ; SSE41-NEXT:    pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
926 ; SSE41-NEXT:    pcmpeqd %xmm4, %xmm0
927 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
928 ; SSE41-NEXT:    pand %xmm7, %xmm4
929 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
930 ; SSE41-NEXT:    por %xmm4, %xmm0
931 ; SSE41-NEXT:    blendvpd %xmm8, %xmm2
932 ; SSE41-NEXT:    movdqa %xmm5, %xmm0
933 ; SSE41-NEXT:    blendvpd %xmm1, %xmm3
934 ; SSE41-NEXT:    movapd %xmm2, %xmm0
935 ; SSE41-NEXT:    movapd %xmm3, %xmm1
936 ; SSE41-NEXT:    retq
937 ;
938 ; SSE42-LABEL: min_lt_v4i64:
939 ; SSE42:       # BB#0:
940 ; SSE42-NEXT:    movdqa %xmm0, %xmm4
941 ; SSE42-NEXT:    movdqa %xmm3, %xmm5
942 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm5
943 ; SSE42-NEXT:    movdqa %xmm2, %xmm0
944 ; SSE42-NEXT:    pcmpgtq %xmm4, %xmm0
945 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
946 ; SSE42-NEXT:    movdqa %xmm5, %xmm0
947 ; SSE42-NEXT:    blendvpd %xmm1, %xmm3
948 ; SSE42-NEXT:    movapd %xmm2, %xmm0
949 ; SSE42-NEXT:    movapd %xmm3, %xmm1
950 ; SSE42-NEXT:    retq
951 ;
952 ; AVX1-LABEL: min_lt_v4i64:
953 ; AVX1:       # BB#0:
954 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm2
955 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm3
956 ; AVX1-NEXT:    vpcmpgtq %xmm2, %xmm3, %xmm2
957 ; AVX1-NEXT:    vpcmpgtq %xmm0, %xmm1, %xmm3
958 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm3, %ymm2
959 ; AVX1-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
960 ; AVX1-NEXT:    retq
961 ;
962 ; AVX2-LABEL: min_lt_v4i64:
963 ; AVX2:       # BB#0:
964 ; AVX2-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
965 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
966 ; AVX2-NEXT:    retq
967 ;
968 ; AVX512-LABEL: min_lt_v4i64:
969 ; AVX512:       # BB#0:
970 ; AVX512-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
971 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
972 ; AVX512-NEXT:    retq
973   %1 = icmp slt <4 x i64> %a, %b
974   %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
975   ret <4 x i64> %2
976 }
977
978 define <4 x i32> @min_lt_v4i32(<4 x i32> %a, <4 x i32> %b) {
979 ; SSE2-LABEL: min_lt_v4i32:
980 ; SSE2:       # BB#0:
981 ; SSE2-NEXT:    movdqa %xmm1, %xmm2
982 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm2
983 ; SSE2-NEXT:    pand %xmm2, %xmm0
984 ; SSE2-NEXT:    pandn %xmm1, %xmm2
985 ; SSE2-NEXT:    por %xmm2, %xmm0
986 ; SSE2-NEXT:    retq
987 ;
988 ; SSE41-LABEL: min_lt_v4i32:
989 ; SSE41:       # BB#0:
990 ; SSE41-NEXT:    pminsd %xmm1, %xmm0
991 ; SSE41-NEXT:    retq
992 ;
993 ; SSE42-LABEL: min_lt_v4i32:
994 ; SSE42:       # BB#0:
995 ; SSE42-NEXT:    pminsd %xmm1, %xmm0
996 ; SSE42-NEXT:    retq
997 ;
998 ; AVX-LABEL: min_lt_v4i32:
999 ; AVX:       # BB#0:
1000 ; AVX-NEXT:    vpminsd %xmm1, %xmm0, %xmm0
1001 ; AVX-NEXT:    retq
1002   %1 = icmp slt <4 x i32> %a, %b
1003   %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
1004   ret <4 x i32> %2
1005 }
1006
1007 define <8 x i32> @min_lt_v8i32(<8 x i32> %a, <8 x i32> %b) {
1008 ; SSE2-LABEL: min_lt_v8i32:
1009 ; SSE2:       # BB#0:
1010 ; SSE2-NEXT:    movdqa %xmm3, %xmm4
1011 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm4
1012 ; SSE2-NEXT:    movdqa %xmm2, %xmm5
1013 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm5
1014 ; SSE2-NEXT:    pand %xmm5, %xmm0
1015 ; SSE2-NEXT:    pandn %xmm2, %xmm5
1016 ; SSE2-NEXT:    por %xmm5, %xmm0
1017 ; SSE2-NEXT:    pand %xmm4, %xmm1
1018 ; SSE2-NEXT:    pandn %xmm3, %xmm4
1019 ; SSE2-NEXT:    por %xmm4, %xmm1
1020 ; SSE2-NEXT:    retq
1021 ;
1022 ; SSE41-LABEL: min_lt_v8i32:
1023 ; SSE41:       # BB#0:
1024 ; SSE41-NEXT:    pminsd %xmm2, %xmm0
1025 ; SSE41-NEXT:    pminsd %xmm3, %xmm1
1026 ; SSE41-NEXT:    retq
1027 ;
1028 ; SSE42-LABEL: min_lt_v8i32:
1029 ; SSE42:       # BB#0:
1030 ; SSE42-NEXT:    pminsd %xmm2, %xmm0
1031 ; SSE42-NEXT:    pminsd %xmm3, %xmm1
1032 ; SSE42-NEXT:    retq
1033 ;
1034 ; AVX1-LABEL: min_lt_v8i32:
1035 ; AVX1:       # BB#0:
1036 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1037 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1038 ; AVX1-NEXT:    vpminsd %xmm2, %xmm3, %xmm2
1039 ; AVX1-NEXT:    vpminsd %xmm1, %xmm0, %xmm0
1040 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
1041 ; AVX1-NEXT:    retq
1042 ;
1043 ; AVX2-LABEL: min_lt_v8i32:
1044 ; AVX2:       # BB#0:
1045 ; AVX2-NEXT:    vpminsd %ymm1, %ymm0, %ymm0
1046 ; AVX2-NEXT:    retq
1047 ;
1048 ; AVX512-LABEL: min_lt_v8i32:
1049 ; AVX512:       # BB#0:
1050 ; AVX512-NEXT:    vpminsd %ymm1, %ymm0, %ymm0
1051 ; AVX512-NEXT:    retq
1052   %1 = icmp slt <8 x i32> %a, %b
1053   %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
1054   ret <8 x i32> %2
1055 }
1056
1057 define <8 x i16> @min_lt_v8i16(<8 x i16> %a, <8 x i16> %b) {
1058 ; SSE-LABEL: min_lt_v8i16:
1059 ; SSE:       # BB#0:
1060 ; SSE-NEXT:    pminsw %xmm1, %xmm0
1061 ; SSE-NEXT:    retq
1062 ;
1063 ; AVX-LABEL: min_lt_v8i16:
1064 ; AVX:       # BB#0:
1065 ; AVX-NEXT:    vpminsw %xmm1, %xmm0, %xmm0
1066 ; AVX-NEXT:    retq
1067   %1 = icmp slt <8 x i16> %a, %b
1068   %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
1069   ret <8 x i16> %2
1070 }
1071
1072 define <16 x i16> @min_lt_v16i16(<16 x i16> %a, <16 x i16> %b) {
1073 ; SSE-LABEL: min_lt_v16i16:
1074 ; SSE:       # BB#0:
1075 ; SSE-NEXT:    pminsw %xmm2, %xmm0
1076 ; SSE-NEXT:    pminsw %xmm3, %xmm1
1077 ; SSE-NEXT:    retq
1078 ;
1079 ; AVX1-LABEL: min_lt_v16i16:
1080 ; AVX1:       # BB#0:
1081 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1082 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1083 ; AVX1-NEXT:    vpminsw %xmm2, %xmm3, %xmm2
1084 ; AVX1-NEXT:    vpminsw %xmm1, %xmm0, %xmm0
1085 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
1086 ; AVX1-NEXT:    retq
1087 ;
1088 ; AVX2-LABEL: min_lt_v16i16:
1089 ; AVX2:       # BB#0:
1090 ; AVX2-NEXT:    vpminsw %ymm1, %ymm0, %ymm0
1091 ; AVX2-NEXT:    retq
1092 ;
1093 ; AVX512-LABEL: min_lt_v16i16:
1094 ; AVX512:       # BB#0:
1095 ; AVX512-NEXT:    vpminsw %ymm1, %ymm0, %ymm0
1096 ; AVX512-NEXT:    retq
1097   %1 = icmp slt <16 x i16> %a, %b
1098   %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
1099   ret <16 x i16> %2
1100 }
1101
1102 define <16 x i8> @min_lt_v16i8(<16 x i8> %a, <16 x i8> %b) {
1103 ; SSE2-LABEL: min_lt_v16i8:
1104 ; SSE2:       # BB#0:
1105 ; SSE2-NEXT:    movdqa %xmm1, %xmm2
1106 ; SSE2-NEXT:    pcmpgtb %xmm0, %xmm2
1107 ; SSE2-NEXT:    pand %xmm2, %xmm0
1108 ; SSE2-NEXT:    pandn %xmm1, %xmm2
1109 ; SSE2-NEXT:    por %xmm2, %xmm0
1110 ; SSE2-NEXT:    retq
1111 ;
1112 ; SSE41-LABEL: min_lt_v16i8:
1113 ; SSE41:       # BB#0:
1114 ; SSE41-NEXT:    pminsb %xmm1, %xmm0
1115 ; SSE41-NEXT:    retq
1116 ;
1117 ; SSE42-LABEL: min_lt_v16i8:
1118 ; SSE42:       # BB#0:
1119 ; SSE42-NEXT:    pminsb %xmm1, %xmm0
1120 ; SSE42-NEXT:    retq
1121 ;
1122 ; AVX-LABEL: min_lt_v16i8:
1123 ; AVX:       # BB#0:
1124 ; AVX-NEXT:    vpminsb %xmm1, %xmm0, %xmm0
1125 ; AVX-NEXT:    retq
1126   %1 = icmp slt <16 x i8> %a, %b
1127   %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
1128   ret <16 x i8> %2
1129 }
1130
1131 define <32 x i8> @min_lt_v32i8(<32 x i8> %a, <32 x i8> %b) {
1132 ; SSE2-LABEL: min_lt_v32i8:
1133 ; SSE2:       # BB#0:
1134 ; SSE2-NEXT:    movdqa %xmm3, %xmm4
1135 ; SSE2-NEXT:    pcmpgtb %xmm1, %xmm4
1136 ; SSE2-NEXT:    movdqa %xmm2, %xmm5
1137 ; SSE2-NEXT:    pcmpgtb %xmm0, %xmm5
1138 ; SSE2-NEXT:    pand %xmm5, %xmm0
1139 ; SSE2-NEXT:    pandn %xmm2, %xmm5
1140 ; SSE2-NEXT:    por %xmm5, %xmm0
1141 ; SSE2-NEXT:    pand %xmm4, %xmm1
1142 ; SSE2-NEXT:    pandn %xmm3, %xmm4
1143 ; SSE2-NEXT:    por %xmm4, %xmm1
1144 ; SSE2-NEXT:    retq
1145 ;
1146 ; SSE41-LABEL: min_lt_v32i8:
1147 ; SSE41:       # BB#0:
1148 ; SSE41-NEXT:    pminsb %xmm2, %xmm0
1149 ; SSE41-NEXT:    pminsb %xmm3, %xmm1
1150 ; SSE41-NEXT:    retq
1151 ;
1152 ; SSE42-LABEL: min_lt_v32i8:
1153 ; SSE42:       # BB#0:
1154 ; SSE42-NEXT:    pminsb %xmm2, %xmm0
1155 ; SSE42-NEXT:    pminsb %xmm3, %xmm1
1156 ; SSE42-NEXT:    retq
1157 ;
1158 ; AVX1-LABEL: min_lt_v32i8:
1159 ; AVX1:       # BB#0:
1160 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1161 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1162 ; AVX1-NEXT:    vpminsb %xmm2, %xmm3, %xmm2
1163 ; AVX1-NEXT:    vpminsb %xmm1, %xmm0, %xmm0
1164 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
1165 ; AVX1-NEXT:    retq
1166 ;
1167 ; AVX2-LABEL: min_lt_v32i8:
1168 ; AVX2:       # BB#0:
1169 ; AVX2-NEXT:    vpminsb %ymm1, %ymm0, %ymm0
1170 ; AVX2-NEXT:    retq
1171 ;
1172 ; AVX512-LABEL: min_lt_v32i8:
1173 ; AVX512:       # BB#0:
1174 ; AVX512-NEXT:    vpminsb %ymm1, %ymm0, %ymm0
1175 ; AVX512-NEXT:    retq
1176   %1 = icmp slt <32 x i8> %a, %b
1177   %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
1178   ret <32 x i8> %2
1179 }
1180
1181 ;
1182 ; Signed Minimum (LE)
1183 ;
1184
1185 define <2 x i64> @min_le_v2i64(<2 x i64> %a, <2 x i64> %b) {
1186 ; SSE2-LABEL: min_le_v2i64:
1187 ; SSE2:       # BB#0:
1188 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0]
1189 ; SSE2-NEXT:    movdqa %xmm1, %xmm3
1190 ; SSE2-NEXT:    pxor %xmm2, %xmm3
1191 ; SSE2-NEXT:    pxor %xmm0, %xmm2
1192 ; SSE2-NEXT:    movdqa %xmm2, %xmm4
1193 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
1194 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1195 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm2
1196 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm2[1,1,3,3]
1197 ; SSE2-NEXT:    pand %xmm5, %xmm2
1198 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
1199 ; SSE2-NEXT:    por %xmm2, %xmm3
1200 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm2
1201 ; SSE2-NEXT:    pxor %xmm3, %xmm2
1202 ; SSE2-NEXT:    pandn %xmm0, %xmm3
1203 ; SSE2-NEXT:    pandn %xmm1, %xmm2
1204 ; SSE2-NEXT:    por %xmm3, %xmm2
1205 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
1206 ; SSE2-NEXT:    retq
1207 ;
1208 ; SSE41-LABEL: min_le_v2i64:
1209 ; SSE41:       # BB#0:
1210 ; SSE41-NEXT:    movdqa %xmm0, %xmm2
1211 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1212 ; SSE41-NEXT:    movdqa %xmm1, %xmm3
1213 ; SSE41-NEXT:    pxor %xmm0, %xmm3
1214 ; SSE41-NEXT:    pxor %xmm2, %xmm0
1215 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
1216 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
1217 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1218 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
1219 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
1220 ; SSE41-NEXT:    pand %xmm5, %xmm0
1221 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
1222 ; SSE41-NEXT:    por %xmm0, %xmm3
1223 ; SSE41-NEXT:    pcmpeqd %xmm0, %xmm0
1224 ; SSE41-NEXT:    pxor %xmm3, %xmm0
1225 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
1226 ; SSE41-NEXT:    movapd %xmm1, %xmm0
1227 ; SSE41-NEXT:    retq
1228 ;
1229 ; SSE42-LABEL: min_le_v2i64:
1230 ; SSE42:       # BB#0:
1231 ; SSE42-NEXT:    movdqa %xmm0, %xmm2
1232 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm0
1233 ; SSE42-NEXT:    pcmpeqd %xmm3, %xmm3
1234 ; SSE42-NEXT:    pxor %xmm3, %xmm0
1235 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
1236 ; SSE42-NEXT:    movapd %xmm1, %xmm0
1237 ; SSE42-NEXT:    retq
1238 ;
1239 ; AVX-LABEL: min_le_v2i64:
1240 ; AVX:       # BB#0:
1241 ; AVX-NEXT:    vpcmpgtq %xmm1, %xmm0, %xmm2
1242 ; AVX-NEXT:    vpcmpeqd %xmm3, %xmm3, %xmm3
1243 ; AVX-NEXT:    vpxor %xmm3, %xmm2, %xmm2
1244 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
1245 ; AVX-NEXT:    retq
1246   %1 = icmp sle <2 x i64> %a, %b
1247   %2 = select <2 x i1> %1, <2 x i64> %a, <2 x i64> %b
1248   ret <2 x i64> %2
1249 }
1250
1251 define <4 x i64> @min_le_v4i64(<4 x i64> %a, <4 x i64> %b) {
1252 ; SSE2-LABEL: min_le_v4i64:
1253 ; SSE2:       # BB#0:
1254 ; SSE2-NEXT:    movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
1255 ; SSE2-NEXT:    movdqa %xmm3, %xmm4
1256 ; SSE2-NEXT:    pxor %xmm7, %xmm4
1257 ; SSE2-NEXT:    movdqa %xmm1, %xmm5
1258 ; SSE2-NEXT:    pxor %xmm7, %xmm5
1259 ; SSE2-NEXT:    movdqa %xmm5, %xmm6
1260 ; SSE2-NEXT:    pcmpgtd %xmm4, %xmm6
1261 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm6[0,0,2,2]
1262 ; SSE2-NEXT:    pcmpeqd %xmm4, %xmm5
1263 ; SSE2-NEXT:    pshufd {{.*#+}} xmm4 = xmm5[1,1,3,3]
1264 ; SSE2-NEXT:    pand %xmm8, %xmm4
1265 ; SSE2-NEXT:    pshufd {{.*#+}} xmm8 = xmm6[1,1,3,3]
1266 ; SSE2-NEXT:    por %xmm4, %xmm8
1267 ; SSE2-NEXT:    pcmpeqd %xmm4, %xmm4
1268 ; SSE2-NEXT:    movdqa %xmm8, %xmm9
1269 ; SSE2-NEXT:    pxor %xmm4, %xmm9
1270 ; SSE2-NEXT:    movdqa %xmm2, %xmm6
1271 ; SSE2-NEXT:    pxor %xmm7, %xmm6
1272 ; SSE2-NEXT:    pxor %xmm0, %xmm7
1273 ; SSE2-NEXT:    movdqa %xmm7, %xmm5
1274 ; SSE2-NEXT:    pcmpgtd %xmm6, %xmm5
1275 ; SSE2-NEXT:    pshufd {{.*#+}} xmm10 = xmm5[0,0,2,2]
1276 ; SSE2-NEXT:    pcmpeqd %xmm6, %xmm7
1277 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm7[1,1,3,3]
1278 ; SSE2-NEXT:    pand %xmm10, %xmm6
1279 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm5[1,1,3,3]
1280 ; SSE2-NEXT:    por %xmm6, %xmm5
1281 ; SSE2-NEXT:    pxor %xmm5, %xmm4
1282 ; SSE2-NEXT:    pandn %xmm0, %xmm5
1283 ; SSE2-NEXT:    pandn %xmm2, %xmm4
1284 ; SSE2-NEXT:    por %xmm5, %xmm4
1285 ; SSE2-NEXT:    pandn %xmm1, %xmm8
1286 ; SSE2-NEXT:    pandn %xmm3, %xmm9
1287 ; SSE2-NEXT:    por %xmm8, %xmm9
1288 ; SSE2-NEXT:    movdqa %xmm4, %xmm0
1289 ; SSE2-NEXT:    movdqa %xmm9, %xmm1
1290 ; SSE2-NEXT:    retq
1291 ;
1292 ; SSE41-LABEL: min_le_v4i64:
1293 ; SSE41:       # BB#0:
1294 ; SSE41-NEXT:    movdqa %xmm0, %xmm8
1295 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1296 ; SSE41-NEXT:    movdqa %xmm3, %xmm5
1297 ; SSE41-NEXT:    pxor %xmm0, %xmm5
1298 ; SSE41-NEXT:    movdqa %xmm1, %xmm6
1299 ; SSE41-NEXT:    pxor %xmm0, %xmm6
1300 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
1301 ; SSE41-NEXT:    pcmpgtd %xmm5, %xmm7
1302 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1303 ; SSE41-NEXT:    pcmpeqd %xmm5, %xmm6
1304 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1305 ; SSE41-NEXT:    pand %xmm4, %xmm6
1306 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[1,1,3,3]
1307 ; SSE41-NEXT:    por %xmm6, %xmm5
1308 ; SSE41-NEXT:    pcmpeqd %xmm9, %xmm9
1309 ; SSE41-NEXT:    pxor %xmm9, %xmm5
1310 ; SSE41-NEXT:    movdqa %xmm2, %xmm6
1311 ; SSE41-NEXT:    pxor %xmm0, %xmm6
1312 ; SSE41-NEXT:    pxor %xmm8, %xmm0
1313 ; SSE41-NEXT:    movdqa %xmm0, %xmm7
1314 ; SSE41-NEXT:    pcmpgtd %xmm6, %xmm7
1315 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1316 ; SSE41-NEXT:    pcmpeqd %xmm6, %xmm0
1317 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
1318 ; SSE41-NEXT:    pand %xmm4, %xmm6
1319 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
1320 ; SSE41-NEXT:    por %xmm6, %xmm0
1321 ; SSE41-NEXT:    pxor %xmm9, %xmm0
1322 ; SSE41-NEXT:    blendvpd %xmm8, %xmm2
1323 ; SSE41-NEXT:    movdqa %xmm5, %xmm0
1324 ; SSE41-NEXT:    blendvpd %xmm1, %xmm3
1325 ; SSE41-NEXT:    movapd %xmm2, %xmm0
1326 ; SSE41-NEXT:    movapd %xmm3, %xmm1
1327 ; SSE41-NEXT:    retq
1328 ;
1329 ; SSE42-LABEL: min_le_v4i64:
1330 ; SSE42:       # BB#0:
1331 ; SSE42-NEXT:    movdqa %xmm0, %xmm4
1332 ; SSE42-NEXT:    movdqa %xmm1, %xmm5
1333 ; SSE42-NEXT:    pcmpgtq %xmm3, %xmm5
1334 ; SSE42-NEXT:    pcmpeqd %xmm6, %xmm6
1335 ; SSE42-NEXT:    pxor %xmm6, %xmm5
1336 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm0
1337 ; SSE42-NEXT:    pxor %xmm6, %xmm0
1338 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
1339 ; SSE42-NEXT:    movdqa %xmm5, %xmm0
1340 ; SSE42-NEXT:    blendvpd %xmm1, %xmm3
1341 ; SSE42-NEXT:    movapd %xmm2, %xmm0
1342 ; SSE42-NEXT:    movapd %xmm3, %xmm1
1343 ; SSE42-NEXT:    retq
1344 ;
1345 ; AVX1-LABEL: min_le_v4i64:
1346 ; AVX1:       # BB#0:
1347 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1348 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1349 ; AVX1-NEXT:    vpcmpgtq %xmm2, %xmm3, %xmm2
1350 ; AVX1-NEXT:    vpcmpeqd %xmm3, %xmm3, %xmm3
1351 ; AVX1-NEXT:    vpxor %xmm3, %xmm2, %xmm2
1352 ; AVX1-NEXT:    vpcmpgtq %xmm1, %xmm0, %xmm4
1353 ; AVX1-NEXT:    vpxor %xmm3, %xmm4, %xmm3
1354 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm3, %ymm2
1355 ; AVX1-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1356 ; AVX1-NEXT:    retq
1357 ;
1358 ; AVX2-LABEL: min_le_v4i64:
1359 ; AVX2:       # BB#0:
1360 ; AVX2-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
1361 ; AVX2-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
1362 ; AVX2-NEXT:    vpxor %ymm3, %ymm2, %ymm2
1363 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1364 ; AVX2-NEXT:    retq
1365 ;
1366 ; AVX512-LABEL: min_le_v4i64:
1367 ; AVX512:       # BB#0:
1368 ; AVX512-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
1369 ; AVX512-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
1370 ; AVX512-NEXT:    vpxor %ymm3, %ymm2, %ymm2
1371 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1372 ; AVX512-NEXT:    retq
1373   %1 = icmp sle <4 x i64> %a, %b
1374   %2 = select <4 x i1> %1, <4 x i64> %a, <4 x i64> %b
1375   ret <4 x i64> %2
1376 }
1377
1378 define <4 x i32> @min_le_v4i32(<4 x i32> %a, <4 x i32> %b) {
1379 ; SSE2-LABEL: min_le_v4i32:
1380 ; SSE2:       # BB#0:
1381 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
1382 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm2
1383 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm3
1384 ; SSE2-NEXT:    pxor %xmm2, %xmm3
1385 ; SSE2-NEXT:    pandn %xmm0, %xmm2
1386 ; SSE2-NEXT:    pandn %xmm1, %xmm3
1387 ; SSE2-NEXT:    por %xmm3, %xmm2
1388 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
1389 ; SSE2-NEXT:    retq
1390 ;
1391 ; SSE41-LABEL: min_le_v4i32:
1392 ; SSE41:       # BB#0:
1393 ; SSE41-NEXT:    pminsd %xmm1, %xmm0
1394 ; SSE41-NEXT:    retq
1395 ;
1396 ; SSE42-LABEL: min_le_v4i32:
1397 ; SSE42:       # BB#0:
1398 ; SSE42-NEXT:    pminsd %xmm1, %xmm0
1399 ; SSE42-NEXT:    retq
1400 ;
1401 ; AVX-LABEL: min_le_v4i32:
1402 ; AVX:       # BB#0:
1403 ; AVX-NEXT:    vpminsd %xmm1, %xmm0, %xmm0
1404 ; AVX-NEXT:    retq
1405   %1 = icmp sle <4 x i32> %a, %b
1406   %2 = select <4 x i1> %1, <4 x i32> %a, <4 x i32> %b
1407   ret <4 x i32> %2
1408 }
1409
1410 define <8 x i32> @min_le_v8i32(<8 x i32> %a, <8 x i32> %b) {
1411 ; SSE2-LABEL: min_le_v8i32:
1412 ; SSE2:       # BB#0:
1413 ; SSE2-NEXT:    movdqa %xmm1, %xmm6
1414 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm6
1415 ; SSE2-NEXT:    pcmpeqd %xmm7, %xmm7
1416 ; SSE2-NEXT:    movdqa %xmm6, %xmm4
1417 ; SSE2-NEXT:    pxor %xmm7, %xmm4
1418 ; SSE2-NEXT:    movdqa %xmm0, %xmm5
1419 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm5
1420 ; SSE2-NEXT:    pxor %xmm5, %xmm7
1421 ; SSE2-NEXT:    pandn %xmm0, %xmm5
1422 ; SSE2-NEXT:    pandn %xmm2, %xmm7
1423 ; SSE2-NEXT:    por %xmm7, %xmm5
1424 ; SSE2-NEXT:    pandn %xmm1, %xmm6
1425 ; SSE2-NEXT:    pandn %xmm3, %xmm4
1426 ; SSE2-NEXT:    por %xmm6, %xmm4
1427 ; SSE2-NEXT:    movdqa %xmm5, %xmm0
1428 ; SSE2-NEXT:    movdqa %xmm4, %xmm1
1429 ; SSE2-NEXT:    retq
1430 ;
1431 ; SSE41-LABEL: min_le_v8i32:
1432 ; SSE41:       # BB#0:
1433 ; SSE41-NEXT:    pminsd %xmm2, %xmm0
1434 ; SSE41-NEXT:    pminsd %xmm3, %xmm1
1435 ; SSE41-NEXT:    retq
1436 ;
1437 ; SSE42-LABEL: min_le_v8i32:
1438 ; SSE42:       # BB#0:
1439 ; SSE42-NEXT:    pminsd %xmm2, %xmm0
1440 ; SSE42-NEXT:    pminsd %xmm3, %xmm1
1441 ; SSE42-NEXT:    retq
1442 ;
1443 ; AVX1-LABEL: min_le_v8i32:
1444 ; AVX1:       # BB#0:
1445 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1446 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1447 ; AVX1-NEXT:    vpminsd %xmm2, %xmm3, %xmm2
1448 ; AVX1-NEXT:    vpminsd %xmm1, %xmm0, %xmm0
1449 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
1450 ; AVX1-NEXT:    retq
1451 ;
1452 ; AVX2-LABEL: min_le_v8i32:
1453 ; AVX2:       # BB#0:
1454 ; AVX2-NEXT:    vpminsd %ymm1, %ymm0, %ymm0
1455 ; AVX2-NEXT:    retq
1456 ;
1457 ; AVX512-LABEL: min_le_v8i32:
1458 ; AVX512:       # BB#0:
1459 ; AVX512-NEXT:    vpminsd %ymm1, %ymm0, %ymm0
1460 ; AVX512-NEXT:    retq
1461   %1 = icmp sle <8 x i32> %a, %b
1462   %2 = select <8 x i1> %1, <8 x i32> %a, <8 x i32> %b
1463   ret <8 x i32> %2
1464 }
1465
1466 define <8 x i16> @min_le_v8i16(<8 x i16> %a, <8 x i16> %b) {
1467 ; SSE-LABEL: min_le_v8i16:
1468 ; SSE:       # BB#0:
1469 ; SSE-NEXT:    pminsw %xmm1, %xmm0
1470 ; SSE-NEXT:    retq
1471 ;
1472 ; AVX-LABEL: min_le_v8i16:
1473 ; AVX:       # BB#0:
1474 ; AVX-NEXT:    vpminsw %xmm1, %xmm0, %xmm0
1475 ; AVX-NEXT:    retq
1476   %1 = icmp sle <8 x i16> %a, %b
1477   %2 = select <8 x i1> %1, <8 x i16> %a, <8 x i16> %b
1478   ret <8 x i16> %2
1479 }
1480
1481 define <16 x i16> @min_le_v16i16(<16 x i16> %a, <16 x i16> %b) {
1482 ; SSE-LABEL: min_le_v16i16:
1483 ; SSE:       # BB#0:
1484 ; SSE-NEXT:    pminsw %xmm2, %xmm0
1485 ; SSE-NEXT:    pminsw %xmm3, %xmm1
1486 ; SSE-NEXT:    retq
1487 ;
1488 ; AVX1-LABEL: min_le_v16i16:
1489 ; AVX1:       # BB#0:
1490 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1491 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1492 ; AVX1-NEXT:    vpminsw %xmm2, %xmm3, %xmm2
1493 ; AVX1-NEXT:    vpminsw %xmm1, %xmm0, %xmm0
1494 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
1495 ; AVX1-NEXT:    retq
1496 ;
1497 ; AVX2-LABEL: min_le_v16i16:
1498 ; AVX2:       # BB#0:
1499 ; AVX2-NEXT:    vpminsw %ymm1, %ymm0, %ymm0
1500 ; AVX2-NEXT:    retq
1501 ;
1502 ; AVX512-LABEL: min_le_v16i16:
1503 ; AVX512:       # BB#0:
1504 ; AVX512-NEXT:    vpminsw %ymm1, %ymm0, %ymm0
1505 ; AVX512-NEXT:    retq
1506   %1 = icmp sle <16 x i16> %a, %b
1507   %2 = select <16 x i1> %1, <16 x i16> %a, <16 x i16> %b
1508   ret <16 x i16> %2
1509 }
1510
1511 define <16 x i8> @min_le_v16i8(<16 x i8> %a, <16 x i8> %b) {
1512 ; SSE2-LABEL: min_le_v16i8:
1513 ; SSE2:       # BB#0:
1514 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
1515 ; SSE2-NEXT:    pcmpgtb %xmm1, %xmm2
1516 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm3
1517 ; SSE2-NEXT:    pxor %xmm2, %xmm3
1518 ; SSE2-NEXT:    pandn %xmm0, %xmm2
1519 ; SSE2-NEXT:    pandn %xmm1, %xmm3
1520 ; SSE2-NEXT:    por %xmm3, %xmm2
1521 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
1522 ; SSE2-NEXT:    retq
1523 ;
1524 ; SSE41-LABEL: min_le_v16i8:
1525 ; SSE41:       # BB#0:
1526 ; SSE41-NEXT:    pminsb %xmm1, %xmm0
1527 ; SSE41-NEXT:    retq
1528 ;
1529 ; SSE42-LABEL: min_le_v16i8:
1530 ; SSE42:       # BB#0:
1531 ; SSE42-NEXT:    pminsb %xmm1, %xmm0
1532 ; SSE42-NEXT:    retq
1533 ;
1534 ; AVX-LABEL: min_le_v16i8:
1535 ; AVX:       # BB#0:
1536 ; AVX-NEXT:    vpminsb %xmm1, %xmm0, %xmm0
1537 ; AVX-NEXT:    retq
1538   %1 = icmp sle <16 x i8> %a, %b
1539   %2 = select <16 x i1> %1, <16 x i8> %a, <16 x i8> %b
1540   ret <16 x i8> %2
1541 }
1542
1543 define <32 x i8> @min_le_v32i8(<32 x i8> %a, <32 x i8> %b) {
1544 ; SSE2-LABEL: min_le_v32i8:
1545 ; SSE2:       # BB#0:
1546 ; SSE2-NEXT:    movdqa %xmm1, %xmm6
1547 ; SSE2-NEXT:    pcmpgtb %xmm3, %xmm6
1548 ; SSE2-NEXT:    pcmpeqd %xmm7, %xmm7
1549 ; SSE2-NEXT:    movdqa %xmm6, %xmm4
1550 ; SSE2-NEXT:    pxor %xmm7, %xmm4
1551 ; SSE2-NEXT:    movdqa %xmm0, %xmm5
1552 ; SSE2-NEXT:    pcmpgtb %xmm2, %xmm5
1553 ; SSE2-NEXT:    pxor %xmm5, %xmm7
1554 ; SSE2-NEXT:    pandn %xmm0, %xmm5
1555 ; SSE2-NEXT:    pandn %xmm2, %xmm7
1556 ; SSE2-NEXT:    por %xmm7, %xmm5
1557 ; SSE2-NEXT:    pandn %xmm1, %xmm6
1558 ; SSE2-NEXT:    pandn %xmm3, %xmm4
1559 ; SSE2-NEXT:    por %xmm6, %xmm4
1560 ; SSE2-NEXT:    movdqa %xmm5, %xmm0
1561 ; SSE2-NEXT:    movdqa %xmm4, %xmm1
1562 ; SSE2-NEXT:    retq
1563 ;
1564 ; SSE41-LABEL: min_le_v32i8:
1565 ; SSE41:       # BB#0:
1566 ; SSE41-NEXT:    pminsb %xmm2, %xmm0
1567 ; SSE41-NEXT:    pminsb %xmm3, %xmm1
1568 ; SSE41-NEXT:    retq
1569 ;
1570 ; SSE42-LABEL: min_le_v32i8:
1571 ; SSE42:       # BB#0:
1572 ; SSE42-NEXT:    pminsb %xmm2, %xmm0
1573 ; SSE42-NEXT:    pminsb %xmm3, %xmm1
1574 ; SSE42-NEXT:    retq
1575 ;
1576 ; AVX1-LABEL: min_le_v32i8:
1577 ; AVX1:       # BB#0:
1578 ; AVX1-NEXT:    vextractf128 $1, %ymm1, %xmm2
1579 ; AVX1-NEXT:    vextractf128 $1, %ymm0, %xmm3
1580 ; AVX1-NEXT:    vpminsb %xmm2, %xmm3, %xmm2
1581 ; AVX1-NEXT:    vpminsb %xmm1, %xmm0, %xmm0
1582 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm0, %ymm0
1583 ; AVX1-NEXT:    retq
1584 ;
1585 ; AVX2-LABEL: min_le_v32i8:
1586 ; AVX2:       # BB#0:
1587 ; AVX2-NEXT:    vpminsb %ymm1, %ymm0, %ymm0
1588 ; AVX2-NEXT:    retq
1589 ;
1590 ; AVX512-LABEL: min_le_v32i8:
1591 ; AVX512:       # BB#0:
1592 ; AVX512-NEXT:    vpminsb %ymm1, %ymm0, %ymm0
1593 ; AVX512-NEXT:    retq
1594   %1 = icmp sle <32 x i8> %a, %b
1595   %2 = select <32 x i1> %1, <32 x i8> %a, <32 x i8> %b
1596   ret <32 x i8> %2
1597 }
1598
1599 ;
1600 ; Constant Folding
1601 ;
1602
1603 define <2 x i64> @max_gt_v2i64c() {
1604 ; SSE2-LABEL: max_gt_v2i64c:
1605 ; SSE2:       # BB#0:
1606 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
1607 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
1608 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1609 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
1610 ; SSE2-NEXT:    pxor %xmm2, %xmm3
1611 ; SSE2-NEXT:    pxor %xmm1, %xmm0
1612 ; SSE2-NEXT:    movdqa %xmm0, %xmm4
1613 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
1614 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1615 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm0
1616 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
1617 ; SSE2-NEXT:    pand %xmm5, %xmm3
1618 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
1619 ; SSE2-NEXT:    por %xmm3, %xmm0
1620 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
1621 ; SSE2-NEXT:    pandn %xmm2, %xmm3
1622 ; SSE2-NEXT:    pand %xmm1, %xmm0
1623 ; SSE2-NEXT:    por %xmm3, %xmm0
1624 ; SSE2-NEXT:    retq
1625 ;
1626 ; SSE41-LABEL: max_gt_v2i64c:
1627 ; SSE41:       # BB#0:
1628 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
1629 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
1630 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1631 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
1632 ; SSE41-NEXT:    pxor %xmm1, %xmm3
1633 ; SSE41-NEXT:    pxor %xmm2, %xmm0
1634 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
1635 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
1636 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1637 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
1638 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
1639 ; SSE41-NEXT:    pand %xmm5, %xmm3
1640 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
1641 ; SSE41-NEXT:    por %xmm3, %xmm0
1642 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
1643 ; SSE41-NEXT:    movapd %xmm1, %xmm0
1644 ; SSE41-NEXT:    retq
1645 ;
1646 ; SSE42-LABEL: max_gt_v2i64c:
1647 ; SSE42:       # BB#0:
1648 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
1649 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
1650 ; SSE42-NEXT:    movdqa %xmm2, %xmm0
1651 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm0
1652 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
1653 ; SSE42-NEXT:    movapd %xmm1, %xmm0
1654 ; SSE42-NEXT:    retq
1655 ;
1656 ; AVX-LABEL: max_gt_v2i64c:
1657 ; AVX:       # BB#0:
1658 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
1659 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
1660 ; AVX-NEXT:    vpcmpgtq %xmm1, %xmm0, %xmm2
1661 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
1662 ; AVX-NEXT:    retq
1663   %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
1664   %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
1665   %3 = icmp sgt <2 x i64> %1, %2
1666   %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
1667   ret <2 x i64> %4
1668 }
1669
1670 define <4 x i64> @max_gt_v4i64c() {
1671 ; SSE2-LABEL: max_gt_v4i64c:
1672 ; SSE2:       # BB#0:
1673 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
1674 ; SSE2-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
1675 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
1676 ; SSE2-NEXT:    movdqa {{.*#+}} xmm3 = [7,1]
1677 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1678 ; SSE2-NEXT:    movdqa %xmm0, %xmm1
1679 ; SSE2-NEXT:    pxor %xmm3, %xmm1
1680 ; SSE2-NEXT:    movdqa %xmm0, %xmm6
1681 ; SSE2-NEXT:    pxor %xmm8, %xmm6
1682 ; SSE2-NEXT:    movdqa %xmm6, %xmm7
1683 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm7
1684 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm7[0,0,2,2]
1685 ; SSE2-NEXT:    pcmpeqd %xmm1, %xmm6
1686 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1687 ; SSE2-NEXT:    pand %xmm2, %xmm6
1688 ; SSE2-NEXT:    pshufd {{.*#+}} xmm1 = xmm7[1,1,3,3]
1689 ; SSE2-NEXT:    por %xmm6, %xmm1
1690 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
1691 ; SSE2-NEXT:    pxor %xmm5, %xmm2
1692 ; SSE2-NEXT:    pxor %xmm4, %xmm0
1693 ; SSE2-NEXT:    movdqa %xmm0, %xmm6
1694 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm6
1695 ; SSE2-NEXT:    pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
1696 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm0
1697 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm0[1,1,3,3]
1698 ; SSE2-NEXT:    pand %xmm7, %xmm2
1699 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
1700 ; SSE2-NEXT:    por %xmm2, %xmm0
1701 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
1702 ; SSE2-NEXT:    pandn %xmm5, %xmm2
1703 ; SSE2-NEXT:    pand %xmm4, %xmm0
1704 ; SSE2-NEXT:    por %xmm2, %xmm0
1705 ; SSE2-NEXT:    movdqa %xmm1, %xmm2
1706 ; SSE2-NEXT:    pandn %xmm3, %xmm2
1707 ; SSE2-NEXT:    pand %xmm8, %xmm1
1708 ; SSE2-NEXT:    por %xmm2, %xmm1
1709 ; SSE2-NEXT:    retq
1710 ;
1711 ; SSE41-LABEL: max_gt_v4i64c:
1712 ; SSE41:       # BB#0:
1713 ; SSE41-NEXT:    movdqa {{.*#+}} xmm5 = [18446744073709551609,18446744073709551615]
1714 ; SSE41-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
1715 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
1716 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
1717 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1718 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
1719 ; SSE41-NEXT:    pxor %xmm1, %xmm3
1720 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
1721 ; SSE41-NEXT:    pxor %xmm8, %xmm6
1722 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
1723 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm7
1724 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
1725 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm6
1726 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
1727 ; SSE41-NEXT:    pand %xmm4, %xmm6
1728 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
1729 ; SSE41-NEXT:    por %xmm6, %xmm3
1730 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
1731 ; SSE41-NEXT:    pxor %xmm2, %xmm4
1732 ; SSE41-NEXT:    pxor %xmm5, %xmm0
1733 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
1734 ; SSE41-NEXT:    pcmpgtd %xmm4, %xmm6
1735 ; SSE41-NEXT:    pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
1736 ; SSE41-NEXT:    pcmpeqd %xmm4, %xmm0
1737 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
1738 ; SSE41-NEXT:    pand %xmm7, %xmm4
1739 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
1740 ; SSE41-NEXT:    por %xmm4, %xmm0
1741 ; SSE41-NEXT:    blendvpd %xmm5, %xmm2
1742 ; SSE41-NEXT:    movdqa %xmm3, %xmm0
1743 ; SSE41-NEXT:    blendvpd %xmm8, %xmm1
1744 ; SSE41-NEXT:    movapd %xmm2, %xmm0
1745 ; SSE41-NEXT:    retq
1746 ;
1747 ; SSE42-LABEL: max_gt_v4i64c:
1748 ; SSE42:       # BB#0:
1749 ; SSE42-NEXT:    movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
1750 ; SSE42-NEXT:    movdqa {{.*#+}} xmm5 = [1,7]
1751 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
1752 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
1753 ; SSE42-NEXT:    movdqa %xmm5, %xmm3
1754 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm3
1755 ; SSE42-NEXT:    movdqa %xmm4, %xmm0
1756 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm0
1757 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
1758 ; SSE42-NEXT:    movdqa %xmm3, %xmm0
1759 ; SSE42-NEXT:    blendvpd %xmm5, %xmm1
1760 ; SSE42-NEXT:    movapd %xmm2, %xmm0
1761 ; SSE42-NEXT:    retq
1762 ;
1763 ; AVX1-LABEL: max_gt_v4i64c:
1764 ; AVX1:       # BB#0:
1765 ; AVX1-NEXT:    vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
1766 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [18446744073709551609,18446744073709551615]
1767 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
1768 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm2 = [1,7]
1769 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm2, %xmm2
1770 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm1, %ymm1
1771 ; AVX1-NEXT:    vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
1772 ; AVX1-NEXT:    retq
1773 ;
1774 ; AVX2-LABEL: max_gt_v4i64c:
1775 ; AVX2:       # BB#0:
1776 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
1777 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
1778 ; AVX2-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
1779 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1780 ; AVX2-NEXT:    retq
1781 ;
1782 ; AVX512-LABEL: max_gt_v4i64c:
1783 ; AVX512:       # BB#0:
1784 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
1785 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
1786 ; AVX512-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
1787 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
1788 ; AVX512-NEXT:    retq
1789   %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
1790   %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
1791   %3 = icmp sgt <4 x i64> %1, %2
1792   %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
1793   ret <4 x i64> %4
1794 }
1795
1796 define <4 x i32> @max_gt_v4i32c() {
1797 ; SSE2-LABEL: max_gt_v4i32c:
1798 ; SSE2:       # BB#0:
1799 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
1800 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967295,4294967289,7,1]
1801 ; SSE2-NEXT:    movdqa %xmm1, %xmm0
1802 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm0
1803 ; SSE2-NEXT:    pand %xmm0, %xmm1
1804 ; SSE2-NEXT:    pandn %xmm2, %xmm0
1805 ; SSE2-NEXT:    por %xmm1, %xmm0
1806 ; SSE2-NEXT:    retq
1807 ;
1808 ; SSE41-LABEL: max_gt_v4i32c:
1809 ; SSE41:       # BB#0:
1810 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
1811 ; SSE41-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
1812 ; SSE41-NEXT:    retq
1813 ;
1814 ; SSE42-LABEL: max_gt_v4i32c:
1815 ; SSE42:       # BB#0:
1816 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
1817 ; SSE42-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
1818 ; SSE42-NEXT:    retq
1819 ;
1820 ; AVX-LABEL: max_gt_v4i32c:
1821 ; AVX:       # BB#0:
1822 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
1823 ; AVX-NEXT:    vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
1824 ; AVX-NEXT:    retq
1825   %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
1826   %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 -1, i32 0
1827   %3 = icmp sgt <4 x i32> %1, %2
1828   %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
1829   ret <4 x i32> %4
1830 }
1831
1832 define <8 x i32> @max_gt_v8i32c() {
1833 ; SSE2-LABEL: max_gt_v8i32c:
1834 ; SSE2:       # BB#0:
1835 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
1836 ; SSE2-NEXT:    movdqa {{.*#+}} xmm3 = [1,3,5,7]
1837 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [4294967295,4294967293,4294967291,4294967289]
1838 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [7,5,3,1]
1839 ; SSE2-NEXT:    movdqa %xmm3, %xmm1
1840 ; SSE2-NEXT:    pcmpgtd %xmm5, %xmm1
1841 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
1842 ; SSE2-NEXT:    pcmpgtd %xmm4, %xmm0
1843 ; SSE2-NEXT:    pand %xmm0, %xmm2
1844 ; SSE2-NEXT:    pandn %xmm4, %xmm0
1845 ; SSE2-NEXT:    por %xmm2, %xmm0
1846 ; SSE2-NEXT:    pand %xmm1, %xmm3
1847 ; SSE2-NEXT:    pandn %xmm5, %xmm1
1848 ; SSE2-NEXT:    por %xmm3, %xmm1
1849 ; SSE2-NEXT:    retq
1850 ;
1851 ; SSE41-LABEL: max_gt_v8i32c:
1852 ; SSE41:       # BB#0:
1853 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
1854 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
1855 ; SSE41-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
1856 ; SSE41-NEXT:    pmaxsd {{.*}}(%rip), %xmm1
1857 ; SSE41-NEXT:    retq
1858 ;
1859 ; SSE42-LABEL: max_gt_v8i32c:
1860 ; SSE42:       # BB#0:
1861 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
1862 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
1863 ; SSE42-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
1864 ; SSE42-NEXT:    pmaxsd {{.*}}(%rip), %xmm1
1865 ; SSE42-NEXT:    retq
1866 ;
1867 ; AVX1-LABEL: max_gt_v8i32c:
1868 ; AVX1:       # BB#0:
1869 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
1870 ; AVX1-NEXT:    vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
1871 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
1872 ; AVX1-NEXT:    vpmaxsd {{.*}}(%rip), %xmm1, %xmm1
1873 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
1874 ; AVX1-NEXT:    retq
1875 ;
1876 ; AVX2-LABEL: max_gt_v8i32c:
1877 ; AVX2:       # BB#0:
1878 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
1879 ; AVX2-NEXT:    vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
1880 ; AVX2-NEXT:    retq
1881 ;
1882 ; AVX512-LABEL: max_gt_v8i32c:
1883 ; AVX512:       # BB#0:
1884 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
1885 ; AVX512-NEXT:    vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
1886 ; AVX512-NEXT:    retq
1887   %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
1888   %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 -1, i32 0
1889   %3 = icmp sgt <8 x i32> %1, %2
1890   %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
1891   ret <8 x i32> %4
1892 }
1893
1894 define <8 x i16> @max_gt_v8i16c() {
1895 ; SSE-LABEL: max_gt_v8i16c:
1896 ; SSE:       # BB#0:
1897 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
1898 ; SSE-NEXT:    pmaxsw {{.*}}(%rip), %xmm0
1899 ; SSE-NEXT:    retq
1900 ;
1901 ; AVX-LABEL: max_gt_v8i16c:
1902 ; AVX:       # BB#0:
1903 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
1904 ; AVX-NEXT:    vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
1905 ; AVX-NEXT:    retq
1906   %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i32 0
1907   %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 -1, i32 0
1908   %3 = icmp sgt <8 x i16> %1, %2
1909   %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
1910   ret <8 x i16> %4
1911 }
1912
1913 define <16 x i16> @max_gt_v16i16c() {
1914 ; SSE-LABEL: max_gt_v16i16c:
1915 ; SSE:       # BB#0:
1916 ; SSE-NEXT:    movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
1917 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
1918 ; SSE-NEXT:    pmaxsw {{.*}}(%rip), %xmm0
1919 ; SSE-NEXT:    pmaxsw {{.*}}(%rip), %xmm1
1920 ; SSE-NEXT:    retq
1921 ;
1922 ; AVX1-LABEL: max_gt_v16i16c:
1923 ; AVX1:       # BB#0:
1924 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
1925 ; AVX1-NEXT:    vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
1926 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
1927 ; AVX1-NEXT:    vpmaxsw {{.*}}(%rip), %xmm1, %xmm1
1928 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
1929 ; AVX1-NEXT:    retq
1930 ;
1931 ; AVX2-LABEL: max_gt_v16i16c:
1932 ; AVX2:       # BB#0:
1933 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
1934 ; AVX2-NEXT:    vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
1935 ; AVX2-NEXT:    retq
1936 ;
1937 ; AVX512-LABEL: max_gt_v16i16c:
1938 ; AVX512:       # BB#0:
1939 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
1940 ; AVX512-NEXT:    vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
1941 ; AVX512-NEXT:    retq
1942   %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i32 0
1943   %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 -1, i32 0
1944   %3 = icmp sgt <16 x i16> %1, %2
1945   %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
1946   ret <16 x i16> %4
1947 }
1948
1949 define <16 x i8> @max_gt_v16i8c() {
1950 ; SSE2-LABEL: max_gt_v16i8c:
1951 ; SSE2:       # BB#0:
1952 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1953 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [255,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
1954 ; SSE2-NEXT:    movdqa %xmm1, %xmm0
1955 ; SSE2-NEXT:    pcmpgtb %xmm2, %xmm0
1956 ; SSE2-NEXT:    pand %xmm0, %xmm1
1957 ; SSE2-NEXT:    pandn %xmm2, %xmm0
1958 ; SSE2-NEXT:    por %xmm1, %xmm0
1959 ; SSE2-NEXT:    retq
1960 ;
1961 ; SSE41-LABEL: max_gt_v16i8c:
1962 ; SSE41:       # BB#0:
1963 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1964 ; SSE41-NEXT:    pmaxsb {{.*}}(%rip), %xmm0
1965 ; SSE41-NEXT:    retq
1966 ;
1967 ; SSE42-LABEL: max_gt_v16i8c:
1968 ; SSE42:       # BB#0:
1969 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1970 ; SSE42-NEXT:    pmaxsb {{.*}}(%rip), %xmm0
1971 ; SSE42-NEXT:    retq
1972 ;
1973 ; AVX-LABEL: max_gt_v16i8c:
1974 ; AVX:       # BB#0:
1975 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
1976 ; AVX-NEXT:    vpmaxsb {{.*}}(%rip), %xmm0, %xmm0
1977 ; AVX-NEXT:    retq
1978   %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i32 0
1979   %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 -1, i32 0
1980   %3 = icmp sgt <16 x i8> %1, %2
1981   %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
1982   ret <16 x i8> %4
1983 }
1984
1985 define <2 x i64> @max_ge_v2i64c() {
1986 ; SSE2-LABEL: max_ge_v2i64c:
1987 ; SSE2:       # BB#0:
1988 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
1989 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
1990 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
1991 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
1992 ; SSE2-NEXT:    pxor %xmm1, %xmm3
1993 ; SSE2-NEXT:    pxor %xmm2, %xmm0
1994 ; SSE2-NEXT:    movdqa %xmm0, %xmm4
1995 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
1996 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
1997 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm0
1998 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
1999 ; SSE2-NEXT:    pand %xmm5, %xmm0
2000 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2001 ; SSE2-NEXT:    por %xmm0, %xmm3
2002 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2003 ; SSE2-NEXT:    pxor %xmm3, %xmm0
2004 ; SSE2-NEXT:    pandn %xmm1, %xmm3
2005 ; SSE2-NEXT:    pandn %xmm2, %xmm0
2006 ; SSE2-NEXT:    por %xmm3, %xmm0
2007 ; SSE2-NEXT:    retq
2008 ;
2009 ; SSE41-LABEL: max_ge_v2i64c:
2010 ; SSE41:       # BB#0:
2011 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2012 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2013 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2014 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
2015 ; SSE41-NEXT:    pxor %xmm2, %xmm3
2016 ; SSE41-NEXT:    pxor %xmm1, %xmm0
2017 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
2018 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
2019 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2020 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
2021 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
2022 ; SSE41-NEXT:    pand %xmm5, %xmm0
2023 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2024 ; SSE41-NEXT:    por %xmm0, %xmm3
2025 ; SSE41-NEXT:    pcmpeqd %xmm0, %xmm0
2026 ; SSE41-NEXT:    pxor %xmm3, %xmm0
2027 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
2028 ; SSE41-NEXT:    movapd %xmm1, %xmm0
2029 ; SSE41-NEXT:    retq
2030 ;
2031 ; SSE42-LABEL: max_ge_v2i64c:
2032 ; SSE42:       # BB#0:
2033 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2034 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2035 ; SSE42-NEXT:    movdqa %xmm1, %xmm3
2036 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm3
2037 ; SSE42-NEXT:    pcmpeqd %xmm0, %xmm0
2038 ; SSE42-NEXT:    pxor %xmm3, %xmm0
2039 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
2040 ; SSE42-NEXT:    movapd %xmm1, %xmm0
2041 ; SSE42-NEXT:    retq
2042 ;
2043 ; AVX-LABEL: max_ge_v2i64c:
2044 ; AVX:       # BB#0:
2045 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
2046 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2047 ; AVX-NEXT:    vpcmpgtq %xmm0, %xmm1, %xmm2
2048 ; AVX-NEXT:    vpcmpeqd %xmm3, %xmm3, %xmm3
2049 ; AVX-NEXT:    vpxor %xmm3, %xmm2, %xmm2
2050 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
2051 ; AVX-NEXT:    retq
2052   %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
2053   %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
2054   %3 = icmp sge <2 x i64> %1, %2
2055   %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
2056   ret <2 x i64> %4
2057 }
2058
2059 define <4 x i64> @max_ge_v4i64c() {
2060 ; SSE2-LABEL: max_ge_v4i64c:
2061 ; SSE2:       # BB#0:
2062 ; SSE2-NEXT:    movdqa {{.*#+}} xmm10 = [18446744073709551609,18446744073709551615]
2063 ; SSE2-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
2064 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
2065 ; SSE2-NEXT:    movdqa {{.*#+}} xmm9 = [7,1]
2066 ; SSE2-NEXT:    movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
2067 ; SSE2-NEXT:    movdqa %xmm7, %xmm0
2068 ; SSE2-NEXT:    pxor %xmm8, %xmm0
2069 ; SSE2-NEXT:    movdqa %xmm7, %xmm1
2070 ; SSE2-NEXT:    pxor %xmm9, %xmm1
2071 ; SSE2-NEXT:    movdqa %xmm1, %xmm6
2072 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm6
2073 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm6[0,0,2,2]
2074 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm1
2075 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm1[1,1,3,3]
2076 ; SSE2-NEXT:    pand %xmm2, %xmm0
2077 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2078 ; SSE2-NEXT:    por %xmm0, %xmm6
2079 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2080 ; SSE2-NEXT:    movdqa %xmm6, %xmm1
2081 ; SSE2-NEXT:    pxor %xmm0, %xmm1
2082 ; SSE2-NEXT:    movdqa %xmm7, %xmm2
2083 ; SSE2-NEXT:    pxor %xmm10, %xmm2
2084 ; SSE2-NEXT:    pxor %xmm5, %xmm7
2085 ; SSE2-NEXT:    movdqa %xmm7, %xmm3
2086 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm3
2087 ; SSE2-NEXT:    pshufd {{.*#+}} xmm4 = xmm3[0,0,2,2]
2088 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm7
2089 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm7[1,1,3,3]
2090 ; SSE2-NEXT:    pand %xmm4, %xmm2
2091 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm3[1,1,3,3]
2092 ; SSE2-NEXT:    por %xmm2, %xmm3
2093 ; SSE2-NEXT:    pxor %xmm3, %xmm0
2094 ; SSE2-NEXT:    pandn %xmm10, %xmm3
2095 ; SSE2-NEXT:    pandn %xmm5, %xmm0
2096 ; SSE2-NEXT:    por %xmm3, %xmm0
2097 ; SSE2-NEXT:    pandn %xmm8, %xmm6
2098 ; SSE2-NEXT:    pandn %xmm9, %xmm1
2099 ; SSE2-NEXT:    por %xmm6, %xmm1
2100 ; SSE2-NEXT:    retq
2101 ;
2102 ; SSE41-LABEL: max_ge_v4i64c:
2103 ; SSE41:       # BB#0:
2104 ; SSE41-NEXT:    movdqa {{.*#+}} xmm9 = [18446744073709551609,18446744073709551615]
2105 ; SSE41-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
2106 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2107 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
2108 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2109 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
2110 ; SSE41-NEXT:    pxor %xmm8, %xmm3
2111 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
2112 ; SSE41-NEXT:    pxor %xmm1, %xmm6
2113 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
2114 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm7
2115 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
2116 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm6
2117 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2118 ; SSE41-NEXT:    pand %xmm4, %xmm6
2119 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
2120 ; SSE41-NEXT:    por %xmm6, %xmm3
2121 ; SSE41-NEXT:    pcmpeqd %xmm4, %xmm4
2122 ; SSE41-NEXT:    pxor %xmm4, %xmm3
2123 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
2124 ; SSE41-NEXT:    pxor %xmm9, %xmm6
2125 ; SSE41-NEXT:    pxor %xmm2, %xmm0
2126 ; SSE41-NEXT:    movdqa %xmm0, %xmm7
2127 ; SSE41-NEXT:    pcmpgtd %xmm6, %xmm7
2128 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[0,0,2,2]
2129 ; SSE41-NEXT:    pcmpeqd %xmm6, %xmm0
2130 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
2131 ; SSE41-NEXT:    pand %xmm5, %xmm6
2132 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
2133 ; SSE41-NEXT:    por %xmm6, %xmm0
2134 ; SSE41-NEXT:    pxor %xmm4, %xmm0
2135 ; SSE41-NEXT:    blendvpd %xmm9, %xmm2
2136 ; SSE41-NEXT:    movdqa %xmm3, %xmm0
2137 ; SSE41-NEXT:    blendvpd %xmm8, %xmm1
2138 ; SSE41-NEXT:    movapd %xmm2, %xmm0
2139 ; SSE41-NEXT:    retq
2140 ;
2141 ; SSE42-LABEL: max_ge_v4i64c:
2142 ; SSE42:       # BB#0:
2143 ; SSE42-NEXT:    movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2144 ; SSE42-NEXT:    movdqa {{.*#+}} xmm5 = [1,7]
2145 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2146 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
2147 ; SSE42-NEXT:    movdqa %xmm1, %xmm3
2148 ; SSE42-NEXT:    pcmpgtq %xmm5, %xmm3
2149 ; SSE42-NEXT:    pcmpeqd %xmm6, %xmm6
2150 ; SSE42-NEXT:    pxor %xmm6, %xmm3
2151 ; SSE42-NEXT:    movdqa %xmm2, %xmm0
2152 ; SSE42-NEXT:    pcmpgtq %xmm4, %xmm0
2153 ; SSE42-NEXT:    pxor %xmm6, %xmm0
2154 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
2155 ; SSE42-NEXT:    movdqa %xmm3, %xmm0
2156 ; SSE42-NEXT:    blendvpd %xmm5, %xmm1
2157 ; SSE42-NEXT:    movapd %xmm2, %xmm0
2158 ; SSE42-NEXT:    retq
2159 ;
2160 ; AVX1-LABEL: max_ge_v4i64c:
2161 ; AVX1:       # BB#0:
2162 ; AVX1-NEXT:    vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
2163 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [7,1]
2164 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
2165 ; AVX1-NEXT:    vpcmpeqd %xmm2, %xmm2, %xmm2
2166 ; AVX1-NEXT:    vpxor %xmm2, %xmm1, %xmm1
2167 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm3 = [18446744073709551615,18446744073709551609]
2168 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm3, %xmm3
2169 ; AVX1-NEXT:    vpxor %xmm2, %xmm3, %xmm2
2170 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm2, %ymm1
2171 ; AVX1-NEXT:    vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
2172 ; AVX1-NEXT:    retq
2173 ;
2174 ; AVX2-LABEL: max_ge_v4i64c:
2175 ; AVX2:       # BB#0:
2176 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2177 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2178 ; AVX2-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
2179 ; AVX2-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
2180 ; AVX2-NEXT:    vpxor %ymm3, %ymm2, %ymm2
2181 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2182 ; AVX2-NEXT:    retq
2183 ;
2184 ; AVX512-LABEL: max_ge_v4i64c:
2185 ; AVX512:       # BB#0:
2186 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2187 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2188 ; AVX512-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
2189 ; AVX512-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
2190 ; AVX512-NEXT:    vpxor %ymm3, %ymm2, %ymm2
2191 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2192 ; AVX512-NEXT:    retq
2193   %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
2194   %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
2195   %3 = icmp sge <4 x i64> %1, %2
2196   %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
2197   ret <4 x i64> %4
2198 }
2199
2200 define <4 x i32> @max_ge_v4i32c() {
2201 ; SSE2-LABEL: max_ge_v4i32c:
2202 ; SSE2:       # BB#0:
2203 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
2204 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967295,4294967289,7,1]
2205 ; SSE2-NEXT:    movdqa %xmm2, %xmm3
2206 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm3
2207 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2208 ; SSE2-NEXT:    pxor %xmm3, %xmm0
2209 ; SSE2-NEXT:    pandn %xmm1, %xmm3
2210 ; SSE2-NEXT:    pandn %xmm2, %xmm0
2211 ; SSE2-NEXT:    por %xmm3, %xmm0
2212 ; SSE2-NEXT:    retq
2213 ;
2214 ; SSE41-LABEL: max_ge_v4i32c:
2215 ; SSE41:       # BB#0:
2216 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2217 ; SSE41-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
2218 ; SSE41-NEXT:    retq
2219 ;
2220 ; SSE42-LABEL: max_ge_v4i32c:
2221 ; SSE42:       # BB#0:
2222 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2223 ; SSE42-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
2224 ; SSE42-NEXT:    retq
2225 ;
2226 ; AVX-LABEL: max_ge_v4i32c:
2227 ; AVX:       # BB#0:
2228 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2229 ; AVX-NEXT:    vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
2230 ; AVX-NEXT:    retq
2231   %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
2232   %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 -1, i32 0
2233   %3 = icmp sge <4 x i32> %1, %2
2234   %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
2235   ret <4 x i32> %4
2236 }
2237
2238 define <8 x i32> @max_ge_v8i32c() {
2239 ; SSE2-LABEL: max_ge_v8i32c:
2240 ; SSE2:       # BB#0:
2241 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
2242 ; SSE2-NEXT:    movdqa {{.*#+}} xmm3 = [1,3,5,7]
2243 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [4294967295,4294967293,4294967291,4294967289]
2244 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [7,5,3,1]
2245 ; SSE2-NEXT:    movdqa %xmm5, %xmm6
2246 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm6
2247 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2248 ; SSE2-NEXT:    movdqa %xmm6, %xmm1
2249 ; SSE2-NEXT:    pxor %xmm0, %xmm1
2250 ; SSE2-NEXT:    movdqa %xmm4, %xmm7
2251 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm7
2252 ; SSE2-NEXT:    pxor %xmm7, %xmm0
2253 ; SSE2-NEXT:    pandn %xmm2, %xmm7
2254 ; SSE2-NEXT:    pandn %xmm4, %xmm0
2255 ; SSE2-NEXT:    por %xmm7, %xmm0
2256 ; SSE2-NEXT:    pandn %xmm3, %xmm6
2257 ; SSE2-NEXT:    pandn %xmm5, %xmm1
2258 ; SSE2-NEXT:    por %xmm6, %xmm1
2259 ; SSE2-NEXT:    retq
2260 ;
2261 ; SSE41-LABEL: max_ge_v8i32c:
2262 ; SSE41:       # BB#0:
2263 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
2264 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2265 ; SSE41-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
2266 ; SSE41-NEXT:    pmaxsd {{.*}}(%rip), %xmm1
2267 ; SSE41-NEXT:    retq
2268 ;
2269 ; SSE42-LABEL: max_ge_v8i32c:
2270 ; SSE42:       # BB#0:
2271 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
2272 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2273 ; SSE42-NEXT:    pmaxsd {{.*}}(%rip), %xmm0
2274 ; SSE42-NEXT:    pmaxsd {{.*}}(%rip), %xmm1
2275 ; SSE42-NEXT:    retq
2276 ;
2277 ; AVX1-LABEL: max_ge_v8i32c:
2278 ; AVX1:       # BB#0:
2279 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2280 ; AVX1-NEXT:    vpmaxsd {{.*}}(%rip), %xmm0, %xmm0
2281 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
2282 ; AVX1-NEXT:    vpmaxsd {{.*}}(%rip), %xmm1, %xmm1
2283 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
2284 ; AVX1-NEXT:    retq
2285 ;
2286 ; AVX2-LABEL: max_ge_v8i32c:
2287 ; AVX2:       # BB#0:
2288 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2289 ; AVX2-NEXT:    vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
2290 ; AVX2-NEXT:    retq
2291 ;
2292 ; AVX512-LABEL: max_ge_v8i32c:
2293 ; AVX512:       # BB#0:
2294 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2295 ; AVX512-NEXT:    vpmaxsd {{.*}}(%rip), %ymm0, %ymm0
2296 ; AVX512-NEXT:    retq
2297   %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
2298   %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 -1, i32 0
2299   %3 = icmp sge <8 x i32> %1, %2
2300   %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
2301   ret <8 x i32> %4
2302 }
2303
2304 define <8 x i16> @max_ge_v8i16c() {
2305 ; SSE-LABEL: max_ge_v8i16c:
2306 ; SSE:       # BB#0:
2307 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2308 ; SSE-NEXT:    pmaxsw {{.*}}(%rip), %xmm0
2309 ; SSE-NEXT:    retq
2310 ;
2311 ; AVX-LABEL: max_ge_v8i16c:
2312 ; AVX:       # BB#0:
2313 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2314 ; AVX-NEXT:    vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
2315 ; AVX-NEXT:    retq
2316   %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i32 0
2317   %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 -1, i32 0
2318   %3 = icmp sge <8 x i16> %1, %2
2319   %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
2320   ret <8 x i16> %4
2321 }
2322
2323 define <16 x i16> @max_ge_v16i16c() {
2324 ; SSE-LABEL: max_ge_v16i16c:
2325 ; SSE:       # BB#0:
2326 ; SSE-NEXT:    movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2327 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2328 ; SSE-NEXT:    pmaxsw {{.*}}(%rip), %xmm0
2329 ; SSE-NEXT:    pmaxsw {{.*}}(%rip), %xmm1
2330 ; SSE-NEXT:    retq
2331 ;
2332 ; AVX1-LABEL: max_ge_v16i16c:
2333 ; AVX1:       # BB#0:
2334 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2335 ; AVX1-NEXT:    vpmaxsw {{.*}}(%rip), %xmm0, %xmm0
2336 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2337 ; AVX1-NEXT:    vpmaxsw {{.*}}(%rip), %xmm1, %xmm1
2338 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
2339 ; AVX1-NEXT:    retq
2340 ;
2341 ; AVX2-LABEL: max_ge_v16i16c:
2342 ; AVX2:       # BB#0:
2343 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2344 ; AVX2-NEXT:    vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
2345 ; AVX2-NEXT:    retq
2346 ;
2347 ; AVX512-LABEL: max_ge_v16i16c:
2348 ; AVX512:       # BB#0:
2349 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2350 ; AVX512-NEXT:    vpmaxsw {{.*}}(%rip), %ymm0, %ymm0
2351 ; AVX512-NEXT:    retq
2352   %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i32 0
2353   %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 -1, i32 0
2354   %3 = icmp sge <16 x i16> %1, %2
2355   %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
2356   ret <16 x i16> %4
2357 }
2358
2359 define <16 x i8> @max_ge_v16i8c() {
2360 ; SSE2-LABEL: max_ge_v16i8c:
2361 ; SSE2:       # BB#0:
2362 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2363 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [255,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
2364 ; SSE2-NEXT:    movdqa %xmm2, %xmm3
2365 ; SSE2-NEXT:    pcmpgtb %xmm1, %xmm3
2366 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2367 ; SSE2-NEXT:    pxor %xmm3, %xmm0
2368 ; SSE2-NEXT:    pandn %xmm1, %xmm3
2369 ; SSE2-NEXT:    pandn %xmm2, %xmm0
2370 ; SSE2-NEXT:    por %xmm3, %xmm0
2371 ; SSE2-NEXT:    retq
2372 ;
2373 ; SSE41-LABEL: max_ge_v16i8c:
2374 ; SSE41:       # BB#0:
2375 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2376 ; SSE41-NEXT:    pmaxsb {{.*}}(%rip), %xmm0
2377 ; SSE41-NEXT:    retq
2378 ;
2379 ; SSE42-LABEL: max_ge_v16i8c:
2380 ; SSE42:       # BB#0:
2381 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2382 ; SSE42-NEXT:    pmaxsb {{.*}}(%rip), %xmm0
2383 ; SSE42-NEXT:    retq
2384 ;
2385 ; AVX-LABEL: max_ge_v16i8c:
2386 ; AVX:       # BB#0:
2387 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2388 ; AVX-NEXT:    vpmaxsb {{.*}}(%rip), %xmm0, %xmm0
2389 ; AVX-NEXT:    retq
2390   %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i32 0
2391   %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 -1, i32 0
2392   %3 = icmp sge <16 x i8> %1, %2
2393   %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
2394   ret <16 x i8> %4
2395 }
2396
2397 define <2 x i64> @min_lt_v2i64c() {
2398 ; SSE2-LABEL: min_lt_v2i64c:
2399 ; SSE2:       # BB#0:
2400 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
2401 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
2402 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2403 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
2404 ; SSE2-NEXT:    pxor %xmm1, %xmm3
2405 ; SSE2-NEXT:    pxor %xmm2, %xmm0
2406 ; SSE2-NEXT:    movdqa %xmm0, %xmm4
2407 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
2408 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2409 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm0
2410 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
2411 ; SSE2-NEXT:    pand %xmm5, %xmm3
2412 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
2413 ; SSE2-NEXT:    por %xmm3, %xmm0
2414 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
2415 ; SSE2-NEXT:    pandn %xmm2, %xmm3
2416 ; SSE2-NEXT:    pand %xmm1, %xmm0
2417 ; SSE2-NEXT:    por %xmm3, %xmm0
2418 ; SSE2-NEXT:    retq
2419 ;
2420 ; SSE41-LABEL: min_lt_v2i64c:
2421 ; SSE41:       # BB#0:
2422 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2423 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2424 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2425 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
2426 ; SSE41-NEXT:    pxor %xmm2, %xmm3
2427 ; SSE41-NEXT:    pxor %xmm1, %xmm0
2428 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
2429 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
2430 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2431 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
2432 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
2433 ; SSE41-NEXT:    pand %xmm5, %xmm3
2434 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm4[1,1,3,3]
2435 ; SSE41-NEXT:    por %xmm3, %xmm0
2436 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
2437 ; SSE41-NEXT:    movapd %xmm1, %xmm0
2438 ; SSE41-NEXT:    retq
2439 ;
2440 ; SSE42-LABEL: min_lt_v2i64c:
2441 ; SSE42:       # BB#0:
2442 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2443 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2444 ; SSE42-NEXT:    movdqa %xmm1, %xmm0
2445 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm0
2446 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
2447 ; SSE42-NEXT:    movapd %xmm1, %xmm0
2448 ; SSE42-NEXT:    retq
2449 ;
2450 ; AVX-LABEL: min_lt_v2i64c:
2451 ; AVX:       # BB#0:
2452 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
2453 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2454 ; AVX-NEXT:    vpcmpgtq %xmm0, %xmm1, %xmm2
2455 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
2456 ; AVX-NEXT:    retq
2457   %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
2458   %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
2459   %3 = icmp slt <2 x i64> %1, %2
2460   %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
2461   ret <2 x i64> %4
2462 }
2463
2464 define <4 x i64> @min_lt_v4i64c() {
2465 ; SSE2-LABEL: min_lt_v4i64c:
2466 ; SSE2:       # BB#0:
2467 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2468 ; SSE2-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
2469 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
2470 ; SSE2-NEXT:    movdqa {{.*#+}} xmm3 = [7,1]
2471 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2472 ; SSE2-NEXT:    movdqa %xmm0, %xmm1
2473 ; SSE2-NEXT:    pxor %xmm8, %xmm1
2474 ; SSE2-NEXT:    movdqa %xmm0, %xmm6
2475 ; SSE2-NEXT:    pxor %xmm3, %xmm6
2476 ; SSE2-NEXT:    movdqa %xmm6, %xmm7
2477 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm7
2478 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm7[0,0,2,2]
2479 ; SSE2-NEXT:    pcmpeqd %xmm1, %xmm6
2480 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2481 ; SSE2-NEXT:    pand %xmm2, %xmm6
2482 ; SSE2-NEXT:    pshufd {{.*#+}} xmm1 = xmm7[1,1,3,3]
2483 ; SSE2-NEXT:    por %xmm6, %xmm1
2484 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
2485 ; SSE2-NEXT:    pxor %xmm4, %xmm2
2486 ; SSE2-NEXT:    pxor %xmm5, %xmm0
2487 ; SSE2-NEXT:    movdqa %xmm0, %xmm6
2488 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm6
2489 ; SSE2-NEXT:    pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
2490 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm0
2491 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm0[1,1,3,3]
2492 ; SSE2-NEXT:    pand %xmm7, %xmm2
2493 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
2494 ; SSE2-NEXT:    por %xmm2, %xmm0
2495 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
2496 ; SSE2-NEXT:    pandn %xmm5, %xmm2
2497 ; SSE2-NEXT:    pand %xmm4, %xmm0
2498 ; SSE2-NEXT:    por %xmm2, %xmm0
2499 ; SSE2-NEXT:    movdqa %xmm1, %xmm2
2500 ; SSE2-NEXT:    pandn %xmm3, %xmm2
2501 ; SSE2-NEXT:    pand %xmm8, %xmm1
2502 ; SSE2-NEXT:    por %xmm2, %xmm1
2503 ; SSE2-NEXT:    retq
2504 ;
2505 ; SSE41-LABEL: min_lt_v4i64c:
2506 ; SSE41:       # BB#0:
2507 ; SSE41-NEXT:    movdqa {{.*#+}} xmm5 = [18446744073709551609,18446744073709551615]
2508 ; SSE41-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
2509 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2510 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
2511 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2512 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
2513 ; SSE41-NEXT:    pxor %xmm8, %xmm3
2514 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
2515 ; SSE41-NEXT:    pxor %xmm1, %xmm6
2516 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
2517 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm7
2518 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
2519 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm6
2520 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2521 ; SSE41-NEXT:    pand %xmm4, %xmm6
2522 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
2523 ; SSE41-NEXT:    por %xmm6, %xmm3
2524 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
2525 ; SSE41-NEXT:    pxor %xmm5, %xmm4
2526 ; SSE41-NEXT:    pxor %xmm2, %xmm0
2527 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
2528 ; SSE41-NEXT:    pcmpgtd %xmm4, %xmm6
2529 ; SSE41-NEXT:    pshufd {{.*#+}} xmm7 = xmm6[0,0,2,2]
2530 ; SSE41-NEXT:    pcmpeqd %xmm4, %xmm0
2531 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
2532 ; SSE41-NEXT:    pand %xmm7, %xmm4
2533 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm6[1,1,3,3]
2534 ; SSE41-NEXT:    por %xmm4, %xmm0
2535 ; SSE41-NEXT:    blendvpd %xmm5, %xmm2
2536 ; SSE41-NEXT:    movdqa %xmm3, %xmm0
2537 ; SSE41-NEXT:    blendvpd %xmm8, %xmm1
2538 ; SSE41-NEXT:    movapd %xmm2, %xmm0
2539 ; SSE41-NEXT:    retq
2540 ;
2541 ; SSE42-LABEL: min_lt_v4i64c:
2542 ; SSE42:       # BB#0:
2543 ; SSE42-NEXT:    movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2544 ; SSE42-NEXT:    movdqa {{.*#+}} xmm5 = [1,7]
2545 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2546 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
2547 ; SSE42-NEXT:    movdqa %xmm1, %xmm3
2548 ; SSE42-NEXT:    pcmpgtq %xmm5, %xmm3
2549 ; SSE42-NEXT:    movdqa %xmm2, %xmm0
2550 ; SSE42-NEXT:    pcmpgtq %xmm4, %xmm0
2551 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
2552 ; SSE42-NEXT:    movdqa %xmm3, %xmm0
2553 ; SSE42-NEXT:    blendvpd %xmm5, %xmm1
2554 ; SSE42-NEXT:    movapd %xmm2, %xmm0
2555 ; SSE42-NEXT:    retq
2556 ;
2557 ; AVX1-LABEL: min_lt_v4i64c:
2558 ; AVX1:       # BB#0:
2559 ; AVX1-NEXT:    vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
2560 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [18446744073709551615,18446744073709551609]
2561 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
2562 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm2 = [7,1]
2563 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm2, %xmm2
2564 ; AVX1-NEXT:    vinsertf128 $1, %xmm2, %ymm1, %ymm1
2565 ; AVX1-NEXT:    vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
2566 ; AVX1-NEXT:    retq
2567 ;
2568 ; AVX2-LABEL: min_lt_v4i64c:
2569 ; AVX2:       # BB#0:
2570 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2571 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2572 ; AVX2-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
2573 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2574 ; AVX2-NEXT:    retq
2575 ;
2576 ; AVX512-LABEL: min_lt_v4i64c:
2577 ; AVX512:       # BB#0:
2578 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2579 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2580 ; AVX512-NEXT:    vpcmpgtq %ymm0, %ymm1, %ymm2
2581 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2582 ; AVX512-NEXT:    retq
2583   %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
2584   %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
2585   %3 = icmp slt <4 x i64> %1, %2
2586   %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
2587   ret <4 x i64> %4
2588 }
2589
2590 define <4 x i32> @min_lt_v4i32c() {
2591 ; SSE2-LABEL: min_lt_v4i32c:
2592 ; SSE2:       # BB#0:
2593 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
2594 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967295,4294967289,7,1]
2595 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
2596 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm0
2597 ; SSE2-NEXT:    pand %xmm0, %xmm1
2598 ; SSE2-NEXT:    pandn %xmm2, %xmm0
2599 ; SSE2-NEXT:    por %xmm1, %xmm0
2600 ; SSE2-NEXT:    retq
2601 ;
2602 ; SSE41-LABEL: min_lt_v4i32c:
2603 ; SSE41:       # BB#0:
2604 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2605 ; SSE41-NEXT:    pminsd {{.*}}(%rip), %xmm0
2606 ; SSE41-NEXT:    retq
2607 ;
2608 ; SSE42-LABEL: min_lt_v4i32c:
2609 ; SSE42:       # BB#0:
2610 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2611 ; SSE42-NEXT:    pminsd {{.*}}(%rip), %xmm0
2612 ; SSE42-NEXT:    retq
2613 ;
2614 ; AVX-LABEL: min_lt_v4i32c:
2615 ; AVX:       # BB#0:
2616 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
2617 ; AVX-NEXT:    vpminsd {{.*}}(%rip), %xmm0, %xmm0
2618 ; AVX-NEXT:    retq
2619   %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
2620   %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 -1, i32 0
2621   %3 = icmp slt <4 x i32> %1, %2
2622   %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
2623   ret <4 x i32> %4
2624 }
2625
2626 define <8 x i32> @min_lt_v8i32c() {
2627 ; SSE2-LABEL: min_lt_v8i32c:
2628 ; SSE2:       # BB#0:
2629 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
2630 ; SSE2-NEXT:    movdqa {{.*#+}} xmm3 = [1,3,5,7]
2631 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [4294967295,4294967293,4294967291,4294967289]
2632 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [7,5,3,1]
2633 ; SSE2-NEXT:    movdqa %xmm5, %xmm1
2634 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm1
2635 ; SSE2-NEXT:    movdqa %xmm4, %xmm0
2636 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm0
2637 ; SSE2-NEXT:    pand %xmm0, %xmm2
2638 ; SSE2-NEXT:    pandn %xmm4, %xmm0
2639 ; SSE2-NEXT:    por %xmm2, %xmm0
2640 ; SSE2-NEXT:    pand %xmm1, %xmm3
2641 ; SSE2-NEXT:    pandn %xmm5, %xmm1
2642 ; SSE2-NEXT:    por %xmm3, %xmm1
2643 ; SSE2-NEXT:    retq
2644 ;
2645 ; SSE41-LABEL: min_lt_v8i32c:
2646 ; SSE41:       # BB#0:
2647 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
2648 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2649 ; SSE41-NEXT:    pminsd {{.*}}(%rip), %xmm0
2650 ; SSE41-NEXT:    pminsd {{.*}}(%rip), %xmm1
2651 ; SSE41-NEXT:    retq
2652 ;
2653 ; SSE42-LABEL: min_lt_v8i32c:
2654 ; SSE42:       # BB#0:
2655 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
2656 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2657 ; SSE42-NEXT:    pminsd {{.*}}(%rip), %xmm0
2658 ; SSE42-NEXT:    pminsd {{.*}}(%rip), %xmm1
2659 ; SSE42-NEXT:    retq
2660 ;
2661 ; AVX1-LABEL: min_lt_v8i32c:
2662 ; AVX1:       # BB#0:
2663 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
2664 ; AVX1-NEXT:    vpminsd {{.*}}(%rip), %xmm0, %xmm0
2665 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
2666 ; AVX1-NEXT:    vpminsd {{.*}}(%rip), %xmm1, %xmm1
2667 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
2668 ; AVX1-NEXT:    retq
2669 ;
2670 ; AVX2-LABEL: min_lt_v8i32c:
2671 ; AVX2:       # BB#0:
2672 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2673 ; AVX2-NEXT:    vpminsd {{.*}}(%rip), %ymm0, %ymm0
2674 ; AVX2-NEXT:    retq
2675 ;
2676 ; AVX512-LABEL: min_lt_v8i32c:
2677 ; AVX512:       # BB#0:
2678 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
2679 ; AVX512-NEXT:    vpminsd {{.*}}(%rip), %ymm0, %ymm0
2680 ; AVX512-NEXT:    retq
2681   %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
2682   %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 -1, i32 0
2683   %3 = icmp slt <8 x i32> %1, %2
2684   %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
2685   ret <8 x i32> %4
2686 }
2687
2688 define <8 x i16> @min_lt_v8i16c() {
2689 ; SSE-LABEL: min_lt_v8i16c:
2690 ; SSE:       # BB#0:
2691 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2692 ; SSE-NEXT:    pminsw {{.*}}(%rip), %xmm0
2693 ; SSE-NEXT:    retq
2694 ;
2695 ; AVX-LABEL: min_lt_v8i16c:
2696 ; AVX:       # BB#0:
2697 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
2698 ; AVX-NEXT:    vpminsw {{.*}}(%rip), %xmm0, %xmm0
2699 ; AVX-NEXT:    retq
2700   %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i32 0
2701   %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 -1, i32 0
2702   %3 = icmp slt <8 x i16> %1, %2
2703   %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
2704   ret <8 x i16> %4
2705 }
2706
2707 define <16 x i16> @min_lt_v16i16c() {
2708 ; SSE-LABEL: min_lt_v16i16c:
2709 ; SSE:       # BB#0:
2710 ; SSE-NEXT:    movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2711 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2712 ; SSE-NEXT:    pminsw {{.*}}(%rip), %xmm0
2713 ; SSE-NEXT:    pminsw {{.*}}(%rip), %xmm1
2714 ; SSE-NEXT:    retq
2715 ;
2716 ; AVX1-LABEL: min_lt_v16i16c:
2717 ; AVX1:       # BB#0:
2718 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
2719 ; AVX1-NEXT:    vpminsw {{.*}}(%rip), %xmm0, %xmm0
2720 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
2721 ; AVX1-NEXT:    vpminsw {{.*}}(%rip), %xmm1, %xmm1
2722 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
2723 ; AVX1-NEXT:    retq
2724 ;
2725 ; AVX2-LABEL: min_lt_v16i16c:
2726 ; AVX2:       # BB#0:
2727 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2728 ; AVX2-NEXT:    vpminsw {{.*}}(%rip), %ymm0, %ymm0
2729 ; AVX2-NEXT:    retq
2730 ;
2731 ; AVX512-LABEL: min_lt_v16i16c:
2732 ; AVX512:       # BB#0:
2733 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
2734 ; AVX512-NEXT:    vpminsw {{.*}}(%rip), %ymm0, %ymm0
2735 ; AVX512-NEXT:    retq
2736   %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i32 0
2737   %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 -1, i32 0
2738   %3 = icmp slt <16 x i16> %1, %2
2739   %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
2740   ret <16 x i16> %4
2741 }
2742
2743 define <16 x i8> @min_lt_v16i8c() {
2744 ; SSE2-LABEL: min_lt_v16i8c:
2745 ; SSE2:       # BB#0:
2746 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2747 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [255,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
2748 ; SSE2-NEXT:    movdqa %xmm2, %xmm0
2749 ; SSE2-NEXT:    pcmpgtb %xmm1, %xmm0
2750 ; SSE2-NEXT:    pand %xmm0, %xmm1
2751 ; SSE2-NEXT:    pandn %xmm2, %xmm0
2752 ; SSE2-NEXT:    por %xmm1, %xmm0
2753 ; SSE2-NEXT:    retq
2754 ;
2755 ; SSE41-LABEL: min_lt_v16i8c:
2756 ; SSE41:       # BB#0:
2757 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2758 ; SSE41-NEXT:    pminsb {{.*}}(%rip), %xmm0
2759 ; SSE41-NEXT:    retq
2760 ;
2761 ; SSE42-LABEL: min_lt_v16i8c:
2762 ; SSE42:       # BB#0:
2763 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2764 ; SSE42-NEXT:    pminsb {{.*}}(%rip), %xmm0
2765 ; SSE42-NEXT:    retq
2766 ;
2767 ; AVX-LABEL: min_lt_v16i8c:
2768 ; AVX:       # BB#0:
2769 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
2770 ; AVX-NEXT:    vpminsb {{.*}}(%rip), %xmm0, %xmm0
2771 ; AVX-NEXT:    retq
2772   %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i32 0
2773   %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 -1, i32 0
2774   %3 = icmp slt <16 x i8> %1, %2
2775   %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
2776   ret <16 x i8> %4
2777 }
2778
2779 define <2 x i64> @min_le_v2i64c() {
2780 ; SSE2-LABEL: min_le_v2i64c:
2781 ; SSE2:       # BB#0:
2782 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551609,7]
2783 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,1]
2784 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2785 ; SSE2-NEXT:    movdqa %xmm0, %xmm3
2786 ; SSE2-NEXT:    pxor %xmm2, %xmm3
2787 ; SSE2-NEXT:    pxor %xmm1, %xmm0
2788 ; SSE2-NEXT:    movdqa %xmm0, %xmm4
2789 ; SSE2-NEXT:    pcmpgtd %xmm3, %xmm4
2790 ; SSE2-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2791 ; SSE2-NEXT:    pcmpeqd %xmm3, %xmm0
2792 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
2793 ; SSE2-NEXT:    pand %xmm5, %xmm0
2794 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2795 ; SSE2-NEXT:    por %xmm0, %xmm3
2796 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2797 ; SSE2-NEXT:    pxor %xmm3, %xmm0
2798 ; SSE2-NEXT:    pandn %xmm1, %xmm3
2799 ; SSE2-NEXT:    pandn %xmm2, %xmm0
2800 ; SSE2-NEXT:    por %xmm3, %xmm0
2801 ; SSE2-NEXT:    retq
2802 ;
2803 ; SSE41-LABEL: min_le_v2i64c:
2804 ; SSE41:       # BB#0:
2805 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2806 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2807 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2808 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
2809 ; SSE41-NEXT:    pxor %xmm1, %xmm3
2810 ; SSE41-NEXT:    pxor %xmm2, %xmm0
2811 ; SSE41-NEXT:    movdqa %xmm0, %xmm4
2812 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm4
2813 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm4[0,0,2,2]
2814 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm0
2815 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
2816 ; SSE41-NEXT:    pand %xmm5, %xmm0
2817 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm4[1,1,3,3]
2818 ; SSE41-NEXT:    por %xmm0, %xmm3
2819 ; SSE41-NEXT:    pcmpeqd %xmm0, %xmm0
2820 ; SSE41-NEXT:    pxor %xmm3, %xmm0
2821 ; SSE41-NEXT:    blendvpd %xmm2, %xmm1
2822 ; SSE41-NEXT:    movapd %xmm1, %xmm0
2823 ; SSE41-NEXT:    retq
2824 ;
2825 ; SSE42-LABEL: min_le_v2i64c:
2826 ; SSE42:       # BB#0:
2827 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551609,7]
2828 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2829 ; SSE42-NEXT:    movdqa %xmm2, %xmm3
2830 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm3
2831 ; SSE42-NEXT:    pcmpeqd %xmm0, %xmm0
2832 ; SSE42-NEXT:    pxor %xmm3, %xmm0
2833 ; SSE42-NEXT:    blendvpd %xmm2, %xmm1
2834 ; SSE42-NEXT:    movapd %xmm1, %xmm0
2835 ; SSE42-NEXT:    retq
2836 ;
2837 ; AVX-LABEL: min_le_v2i64c:
2838 ; AVX:       # BB#0:
2839 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [18446744073709551609,7]
2840 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm1 = [18446744073709551615,1]
2841 ; AVX-NEXT:    vpcmpgtq %xmm1, %xmm0, %xmm2
2842 ; AVX-NEXT:    vpcmpeqd %xmm3, %xmm3, %xmm3
2843 ; AVX-NEXT:    vpxor %xmm3, %xmm2, %xmm2
2844 ; AVX-NEXT:    vblendvpd %xmm2, %xmm0, %xmm1, %xmm0
2845 ; AVX-NEXT:    retq
2846   %1 = insertelement <2 x i64> <i64 -7, i64 7>, i64 -7, i32 0
2847   %2 = insertelement <2 x i64> <i64 -1, i64 1>, i64 -1, i32 0
2848   %3 = icmp sle <2 x i64> %1, %2
2849   %4 = select <2 x i1> %3, <2 x i64> %1, <2 x i64> %2
2850   ret <2 x i64> %4
2851 }
2852
2853 define <4 x i64> @min_le_v4i64c() {
2854 ; SSE2-LABEL: min_le_v4i64c:
2855 ; SSE2:       # BB#0:
2856 ; SSE2-NEXT:    movdqa {{.*#+}} xmm10 = [18446744073709551609,18446744073709551615]
2857 ; SSE2-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
2858 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [18446744073709551615,18446744073709551609]
2859 ; SSE2-NEXT:    movdqa {{.*#+}} xmm9 = [7,1]
2860 ; SSE2-NEXT:    movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0]
2861 ; SSE2-NEXT:    movdqa %xmm7, %xmm0
2862 ; SSE2-NEXT:    pxor %xmm9, %xmm0
2863 ; SSE2-NEXT:    movdqa %xmm7, %xmm1
2864 ; SSE2-NEXT:    pxor %xmm8, %xmm1
2865 ; SSE2-NEXT:    movdqa %xmm1, %xmm6
2866 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm6
2867 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm6[0,0,2,2]
2868 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm1
2869 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm1[1,1,3,3]
2870 ; SSE2-NEXT:    pand %xmm2, %xmm0
2871 ; SSE2-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2872 ; SSE2-NEXT:    por %xmm0, %xmm6
2873 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
2874 ; SSE2-NEXT:    movdqa %xmm6, %xmm1
2875 ; SSE2-NEXT:    pxor %xmm0, %xmm1
2876 ; SSE2-NEXT:    movdqa %xmm7, %xmm2
2877 ; SSE2-NEXT:    pxor %xmm5, %xmm2
2878 ; SSE2-NEXT:    pxor %xmm10, %xmm7
2879 ; SSE2-NEXT:    movdqa %xmm7, %xmm3
2880 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm3
2881 ; SSE2-NEXT:    pshufd {{.*#+}} xmm4 = xmm3[0,0,2,2]
2882 ; SSE2-NEXT:    pcmpeqd %xmm2, %xmm7
2883 ; SSE2-NEXT:    pshufd {{.*#+}} xmm2 = xmm7[1,1,3,3]
2884 ; SSE2-NEXT:    pand %xmm4, %xmm2
2885 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm3[1,1,3,3]
2886 ; SSE2-NEXT:    por %xmm2, %xmm3
2887 ; SSE2-NEXT:    pxor %xmm3, %xmm0
2888 ; SSE2-NEXT:    pandn %xmm10, %xmm3
2889 ; SSE2-NEXT:    pandn %xmm5, %xmm0
2890 ; SSE2-NEXT:    por %xmm3, %xmm0
2891 ; SSE2-NEXT:    pandn %xmm8, %xmm6
2892 ; SSE2-NEXT:    pandn %xmm9, %xmm1
2893 ; SSE2-NEXT:    por %xmm6, %xmm1
2894 ; SSE2-NEXT:    retq
2895 ;
2896 ; SSE41-LABEL: min_le_v4i64c:
2897 ; SSE41:       # BB#0:
2898 ; SSE41-NEXT:    movdqa {{.*#+}} xmm9 = [18446744073709551609,18446744073709551615]
2899 ; SSE41-NEXT:    movdqa {{.*#+}} xmm8 = [1,7]
2900 ; SSE41-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2901 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
2902 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [2147483648,0,2147483648,0]
2903 ; SSE41-NEXT:    movdqa %xmm0, %xmm3
2904 ; SSE41-NEXT:    pxor %xmm1, %xmm3
2905 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
2906 ; SSE41-NEXT:    pxor %xmm8, %xmm6
2907 ; SSE41-NEXT:    movdqa %xmm6, %xmm7
2908 ; SSE41-NEXT:    pcmpgtd %xmm3, %xmm7
2909 ; SSE41-NEXT:    pshufd {{.*#+}} xmm4 = xmm7[0,0,2,2]
2910 ; SSE41-NEXT:    pcmpeqd %xmm3, %xmm6
2911 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm6[1,1,3,3]
2912 ; SSE41-NEXT:    pand %xmm4, %xmm6
2913 ; SSE41-NEXT:    pshufd {{.*#+}} xmm3 = xmm7[1,1,3,3]
2914 ; SSE41-NEXT:    por %xmm6, %xmm3
2915 ; SSE41-NEXT:    pcmpeqd %xmm4, %xmm4
2916 ; SSE41-NEXT:    pxor %xmm4, %xmm3
2917 ; SSE41-NEXT:    movdqa %xmm0, %xmm6
2918 ; SSE41-NEXT:    pxor %xmm2, %xmm6
2919 ; SSE41-NEXT:    pxor %xmm9, %xmm0
2920 ; SSE41-NEXT:    movdqa %xmm0, %xmm7
2921 ; SSE41-NEXT:    pcmpgtd %xmm6, %xmm7
2922 ; SSE41-NEXT:    pshufd {{.*#+}} xmm5 = xmm7[0,0,2,2]
2923 ; SSE41-NEXT:    pcmpeqd %xmm6, %xmm0
2924 ; SSE41-NEXT:    pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
2925 ; SSE41-NEXT:    pand %xmm5, %xmm6
2926 ; SSE41-NEXT:    pshufd {{.*#+}} xmm0 = xmm7[1,1,3,3]
2927 ; SSE41-NEXT:    por %xmm6, %xmm0
2928 ; SSE41-NEXT:    pxor %xmm4, %xmm0
2929 ; SSE41-NEXT:    blendvpd %xmm9, %xmm2
2930 ; SSE41-NEXT:    movdqa %xmm3, %xmm0
2931 ; SSE41-NEXT:    blendvpd %xmm8, %xmm1
2932 ; SSE41-NEXT:    movapd %xmm2, %xmm0
2933 ; SSE41-NEXT:    retq
2934 ;
2935 ; SSE42-LABEL: min_le_v4i64c:
2936 ; SSE42:       # BB#0:
2937 ; SSE42-NEXT:    movdqa {{.*#+}} xmm4 = [18446744073709551609,18446744073709551615]
2938 ; SSE42-NEXT:    movdqa {{.*#+}} xmm5 = [1,7]
2939 ; SSE42-NEXT:    movdqa {{.*#+}} xmm2 = [18446744073709551615,18446744073709551609]
2940 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [7,1]
2941 ; SSE42-NEXT:    movdqa %xmm5, %xmm3
2942 ; SSE42-NEXT:    pcmpgtq %xmm1, %xmm3
2943 ; SSE42-NEXT:    pcmpeqd %xmm6, %xmm6
2944 ; SSE42-NEXT:    pxor %xmm6, %xmm3
2945 ; SSE42-NEXT:    movdqa %xmm4, %xmm0
2946 ; SSE42-NEXT:    pcmpgtq %xmm2, %xmm0
2947 ; SSE42-NEXT:    pxor %xmm6, %xmm0
2948 ; SSE42-NEXT:    blendvpd %xmm4, %xmm2
2949 ; SSE42-NEXT:    movdqa %xmm3, %xmm0
2950 ; SSE42-NEXT:    blendvpd %xmm5, %xmm1
2951 ; SSE42-NEXT:    movapd %xmm2, %xmm0
2952 ; SSE42-NEXT:    retq
2953 ;
2954 ; AVX1-LABEL: min_le_v4i64c:
2955 ; AVX1:       # BB#0:
2956 ; AVX1-NEXT:    vmovapd {{.*#+}} ymm0 = [18446744073709551615,18446744073709551609,7,1]
2957 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,7]
2958 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm1, %xmm1
2959 ; AVX1-NEXT:    vpcmpeqd %xmm2, %xmm2, %xmm2
2960 ; AVX1-NEXT:    vpxor %xmm2, %xmm1, %xmm1
2961 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm3 = [18446744073709551609,18446744073709551615]
2962 ; AVX1-NEXT:    vpcmpgtq {{.*}}(%rip), %xmm3, %xmm3
2963 ; AVX1-NEXT:    vpxor %xmm2, %xmm3, %xmm2
2964 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm2, %ymm1
2965 ; AVX1-NEXT:    vblendvpd %ymm1, {{.*}}(%rip), %ymm0, %ymm0
2966 ; AVX1-NEXT:    retq
2967 ;
2968 ; AVX2-LABEL: min_le_v4i64c:
2969 ; AVX2:       # BB#0:
2970 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2971 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2972 ; AVX2-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
2973 ; AVX2-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
2974 ; AVX2-NEXT:    vpxor %ymm3, %ymm2, %ymm2
2975 ; AVX2-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2976 ; AVX2-NEXT:    retq
2977 ;
2978 ; AVX512-LABEL: min_le_v4i64c:
2979 ; AVX512:       # BB#0:
2980 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [18446744073709551609,18446744073709551615,1,7]
2981 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm1 = [18446744073709551615,18446744073709551609,7,1]
2982 ; AVX512-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm2
2983 ; AVX512-NEXT:    vpcmpeqd %ymm3, %ymm3, %ymm3
2984 ; AVX512-NEXT:    vpxor %ymm3, %ymm2, %ymm2
2985 ; AVX512-NEXT:    vblendvpd %ymm2, %ymm0, %ymm1, %ymm0
2986 ; AVX512-NEXT:    retq
2987   %1 = insertelement <4 x i64> <i64 -7, i64 -1, i64 1, i64 7>, i64 -7, i32 0
2988   %2 = insertelement <4 x i64> <i64 -1, i64 -7, i64 7, i64 1>, i64 -1, i32 0
2989   %3 = icmp sle <4 x i64> %1, %2
2990   %4 = select <4 x i1> %3, <4 x i64> %1, <4 x i64> %2
2991   ret <4 x i64> %4
2992 }
2993
2994 define <4 x i32> @min_le_v4i32c() {
2995 ; SSE2-LABEL: min_le_v4i32c:
2996 ; SSE2:       # BB#0:
2997 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [4294967289,4294967295,1,7]
2998 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967295,4294967289,7,1]
2999 ; SSE2-NEXT:    movdqa %xmm1, %xmm3
3000 ; SSE2-NEXT:    pcmpgtd %xmm2, %xmm3
3001 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
3002 ; SSE2-NEXT:    pxor %xmm3, %xmm0
3003 ; SSE2-NEXT:    pandn %xmm1, %xmm3
3004 ; SSE2-NEXT:    pandn %xmm2, %xmm0
3005 ; SSE2-NEXT:    por %xmm3, %xmm0
3006 ; SSE2-NEXT:    retq
3007 ;
3008 ; SSE41-LABEL: min_le_v4i32c:
3009 ; SSE41:       # BB#0:
3010 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
3011 ; SSE41-NEXT:    pminsd {{.*}}(%rip), %xmm0
3012 ; SSE41-NEXT:    retq
3013 ;
3014 ; SSE42-LABEL: min_le_v4i32c:
3015 ; SSE42:       # BB#0:
3016 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
3017 ; SSE42-NEXT:    pminsd {{.*}}(%rip), %xmm0
3018 ; SSE42-NEXT:    retq
3019 ;
3020 ; AVX-LABEL: min_le_v4i32c:
3021 ; AVX:       # BB#0:
3022 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967295,1,7]
3023 ; AVX-NEXT:    vpminsd {{.*}}(%rip), %xmm0, %xmm0
3024 ; AVX-NEXT:    retq
3025   %1 = insertelement <4 x i32> <i32 -7, i32 -1, i32 1, i32 7>, i32 -7, i32 0
3026   %2 = insertelement <4 x i32> <i32 -1, i32 -7, i32 7, i32 1>, i32 -1, i32 0
3027   %3 = icmp sle <4 x i32> %1, %2
3028   %4 = select <4 x i1> %3, <4 x i32> %1, <4 x i32> %2
3029   ret <4 x i32> %4
3030 }
3031
3032 define <8 x i32> @min_le_v8i32c() {
3033 ; SSE2-LABEL: min_le_v8i32c:
3034 ; SSE2:       # BB#0:
3035 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [4294967289,4294967291,4294967293,4294967295]
3036 ; SSE2-NEXT:    movdqa {{.*#+}} xmm3 = [1,3,5,7]
3037 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [4294967295,4294967293,4294967291,4294967289]
3038 ; SSE2-NEXT:    movdqa {{.*#+}} xmm5 = [7,5,3,1]
3039 ; SSE2-NEXT:    movdqa %xmm3, %xmm6
3040 ; SSE2-NEXT:    pcmpgtd %xmm5, %xmm6
3041 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
3042 ; SSE2-NEXT:    movdqa %xmm6, %xmm1
3043 ; SSE2-NEXT:    pxor %xmm0, %xmm1
3044 ; SSE2-NEXT:    movdqa %xmm2, %xmm7
3045 ; SSE2-NEXT:    pcmpgtd %xmm4, %xmm7
3046 ; SSE2-NEXT:    pxor %xmm7, %xmm0
3047 ; SSE2-NEXT:    pandn %xmm2, %xmm7
3048 ; SSE2-NEXT:    pandn %xmm4, %xmm0
3049 ; SSE2-NEXT:    por %xmm7, %xmm0
3050 ; SSE2-NEXT:    pandn %xmm3, %xmm6
3051 ; SSE2-NEXT:    pandn %xmm5, %xmm1
3052 ; SSE2-NEXT:    por %xmm6, %xmm1
3053 ; SSE2-NEXT:    retq
3054 ;
3055 ; SSE41-LABEL: min_le_v8i32c:
3056 ; SSE41:       # BB#0:
3057 ; SSE41-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
3058 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
3059 ; SSE41-NEXT:    pminsd {{.*}}(%rip), %xmm0
3060 ; SSE41-NEXT:    pminsd {{.*}}(%rip), %xmm1
3061 ; SSE41-NEXT:    retq
3062 ;
3063 ; SSE42-LABEL: min_le_v8i32c:
3064 ; SSE42:       # BB#0:
3065 ; SSE42-NEXT:    movdqa {{.*#+}} xmm1 = [1,3,5,7]
3066 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
3067 ; SSE42-NEXT:    pminsd {{.*}}(%rip), %xmm0
3068 ; SSE42-NEXT:    pminsd {{.*}}(%rip), %xmm1
3069 ; SSE42-NEXT:    retq
3070 ;
3071 ; AVX1-LABEL: min_le_v8i32c:
3072 ; AVX1:       # BB#0:
3073 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [4294967289,4294967291,4294967293,4294967295]
3074 ; AVX1-NEXT:    vpminsd {{.*}}(%rip), %xmm0, %xmm0
3075 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,3,5,7]
3076 ; AVX1-NEXT:    vpminsd {{.*}}(%rip), %xmm1, %xmm1
3077 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
3078 ; AVX1-NEXT:    retq
3079 ;
3080 ; AVX2-LABEL: min_le_v8i32c:
3081 ; AVX2:       # BB#0:
3082 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
3083 ; AVX2-NEXT:    vpminsd {{.*}}(%rip), %ymm0, %ymm0
3084 ; AVX2-NEXT:    retq
3085 ;
3086 ; AVX512-LABEL: min_le_v8i32c:
3087 ; AVX512:       # BB#0:
3088 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [4294967289,4294967291,4294967293,4294967295,1,3,5,7]
3089 ; AVX512-NEXT:    vpminsd {{.*}}(%rip), %ymm0, %ymm0
3090 ; AVX512-NEXT:    retq
3091   %1 = insertelement <8 x i32> <i32 -7, i32 -5, i32 -3, i32 -1, i32 1, i32 3, i32 5, i32 7>, i32 -7, i32 0
3092   %2 = insertelement <8 x i32> <i32 -1, i32 -3, i32 -5, i32 -7, i32 7, i32 5, i32 3, i32 1>, i32 -1, i32 0
3093   %3 = icmp sle <8 x i32> %1, %2
3094   %4 = select <8 x i1> %3, <8 x i32> %1, <8 x i32> %2
3095   ret <8 x i32> %4
3096 }
3097
3098 define <8 x i16> @min_le_v8i16c() {
3099 ; SSE-LABEL: min_le_v8i16c:
3100 ; SSE:       # BB#0:
3101 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
3102 ; SSE-NEXT:    pminsw {{.*}}(%rip), %xmm0
3103 ; SSE-NEXT:    retq
3104 ;
3105 ; AVX-LABEL: min_le_v8i16c:
3106 ; AVX:       # BB#0:
3107 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65531,65533,65535,1,3,5,7]
3108 ; AVX-NEXT:    vpminsw {{.*}}(%rip), %xmm0, %xmm0
3109 ; AVX-NEXT:    retq
3110   %1 = insertelement <8 x i16> <i16 -7, i16 -5, i16 -3, i16 -1, i16 1, i16 3, i16 5, i16 7>, i16 -7, i32 0
3111   %2 = insertelement <8 x i16> <i16 -1, i16 -3, i16 -5, i16 -7, i16 7, i16 5, i16 3, i16 1>, i16 -1, i32 0
3112   %3 = icmp sle <8 x i16> %1, %2
3113   %4 = select <8 x i1> %3, <8 x i16> %1, <8 x i16> %2
3114   ret <8 x i16> %4
3115 }
3116
3117 define <16 x i16> @min_le_v16i16c() {
3118 ; SSE-LABEL: min_le_v16i16c:
3119 ; SSE:       # BB#0:
3120 ; SSE-NEXT:    movdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
3121 ; SSE-NEXT:    movdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
3122 ; SSE-NEXT:    pminsw {{.*}}(%rip), %xmm0
3123 ; SSE-NEXT:    pminsw {{.*}}(%rip), %xmm1
3124 ; SSE-NEXT:    retq
3125 ;
3126 ; AVX1-LABEL: min_le_v16i16c:
3127 ; AVX1:       # BB#0:
3128 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm0 = [65529,65530,65531,65532,65533,65534,65535,0]
3129 ; AVX1-NEXT:    vpminsw {{.*}}(%rip), %xmm0, %xmm0
3130 ; AVX1-NEXT:    vmovdqa {{.*#+}} xmm1 = [1,2,3,4,5,6,7,8]
3131 ; AVX1-NEXT:    vpminsw {{.*}}(%rip), %xmm1, %xmm1
3132 ; AVX1-NEXT:    vinsertf128 $1, %xmm1, %ymm0, %ymm0
3133 ; AVX1-NEXT:    retq
3134 ;
3135 ; AVX2-LABEL: min_le_v16i16c:
3136 ; AVX2:       # BB#0:
3137 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
3138 ; AVX2-NEXT:    vpminsw {{.*}}(%rip), %ymm0, %ymm0
3139 ; AVX2-NEXT:    retq
3140 ;
3141 ; AVX512-LABEL: min_le_v16i16c:
3142 ; AVX512:       # BB#0:
3143 ; AVX512-NEXT:    vmovdqa {{.*#+}} ymm0 = [65529,65530,65531,65532,65533,65534,65535,0,1,2,3,4,5,6,7,8]
3144 ; AVX512-NEXT:    vpminsw {{.*}}(%rip), %ymm0, %ymm0
3145 ; AVX512-NEXT:    retq
3146   %1 = insertelement <16 x i16> <i16 -7, i16 -6, i16 -5, i16 -4, i16 -3, i16 -2, i16 -1, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8>, i16 -7, i32 0
3147   %2 = insertelement <16 x i16> <i16 -1, i16 -2, i16 -3, i16 -4, i16 -5, i16 -6, i16 -7, i16 0, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, i16 -1, i32 0
3148   %3 = icmp sle <16 x i16> %1, %2
3149   %4 = select <16 x i1> %3, <16 x i16> %1, <16 x i16> %2
3150   ret <16 x i16> %4
3151 }
3152
3153 define <16 x i8> @min_le_v16i8c() {
3154 ; SSE2-LABEL: min_le_v16i8c:
3155 ; SSE2:       # BB#0:
3156 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3157 ; SSE2-NEXT:    movdqa {{.*#+}} xmm2 = [255,254,253,252,251,250,249,0,7,6,5,4,3,2,1,0]
3158 ; SSE2-NEXT:    movdqa %xmm1, %xmm3
3159 ; SSE2-NEXT:    pcmpgtb %xmm2, %xmm3
3160 ; SSE2-NEXT:    pcmpeqd %xmm0, %xmm0
3161 ; SSE2-NEXT:    pxor %xmm3, %xmm0
3162 ; SSE2-NEXT:    pandn %xmm1, %xmm3
3163 ; SSE2-NEXT:    pandn %xmm2, %xmm0
3164 ; SSE2-NEXT:    por %xmm3, %xmm0
3165 ; SSE2-NEXT:    retq
3166 ;
3167 ; SSE41-LABEL: min_le_v16i8c:
3168 ; SSE41:       # BB#0:
3169 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3170 ; SSE41-NEXT:    pminsb {{.*}}(%rip), %xmm0
3171 ; SSE41-NEXT:    retq
3172 ;
3173 ; SSE42-LABEL: min_le_v16i8c:
3174 ; SSE42:       # BB#0:
3175 ; SSE42-NEXT:    movdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3176 ; SSE42-NEXT:    pminsb {{.*}}(%rip), %xmm0
3177 ; SSE42-NEXT:    retq
3178 ;
3179 ; AVX-LABEL: min_le_v16i8c:
3180 ; AVX:       # BB#0:
3181 ; AVX-NEXT:    vmovdqa {{.*#+}} xmm0 = [249,250,251,252,253,254,255,0,1,2,3,4,5,6,7,8]
3182 ; AVX-NEXT:    vpminsb {{.*}}(%rip), %xmm0, %xmm0
3183 ; AVX-NEXT:    retq
3184   %1 = insertelement <16 x i8> <i8 -7, i8 -6, i8 -5, i8 -4, i8 -3, i8 -2, i8 -1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8>, i8 -7, i32 0
3185   %2 = insertelement <16 x i8> <i8 -1, i8 -2, i8 -3, i8 -4, i8 -5, i8 -6, i8 -7, i8 0, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0>, i8 -1, i32 0
3186   %3 = icmp sle <16 x i8> %1, %2
3187   %4 = select <16 x i1> %3, <16 x i8> %1, <16 x i8> %2
3188   ret <16 x i8> %4
3189 }