70370196e153b31c84cbf73bef95bff55bb2004a
[oota-llvm.git] / test / Transforms / InstCombine / vec_demanded_elts.ll
1 ; RUN: opt < %s -instcombine -S | FileCheck %s
2
3 define i16 @test1(float %f) {
4 entry:
5 ; CHECK-LABEL: @test1(
6 ; CHECK: fmul float
7 ; CHECK-NOT: insertelement {{.*}} 0.00
8 ; CHECK-NOT: call {{.*}} @llvm.x86.sse.mul
9 ; CHECK-NOT: call {{.*}} @llvm.x86.sse.sub
10 ; CHECK: ret
11         %tmp = insertelement <4 x float> undef, float %f, i32 0         ; <<4 x float>> [#uses=1]
12         %tmp10 = insertelement <4 x float> %tmp, float 0.000000e+00, i32 1              ; <<4 x float>> [#uses=1]
13         %tmp11 = insertelement <4 x float> %tmp10, float 0.000000e+00, i32 2            ; <<4 x float>> [#uses=1]
14         %tmp12 = insertelement <4 x float> %tmp11, float 0.000000e+00, i32 3            ; <<4 x float>> [#uses=1]
15         %tmp28 = tail call <4 x float> @llvm.x86.sse.sub.ss( <4 x float> %tmp12, <4 x float> < float 1.000000e+00, float 0.000000e+00, float 0.000000e+00, float 0.000000e+00 > )               ; <<4 x float>> [#uses=1]
16         %tmp37 = tail call <4 x float> @llvm.x86.sse.mul.ss( <4 x float> %tmp28, <4 x float> < float 5.000000e-01, float 0.000000e+00, float 0.000000e+00, float 0.000000e+00 > )               ; <<4 x float>> [#uses=1]
17         %tmp48 = tail call <4 x float> @llvm.x86.sse.min.ss( <4 x float> %tmp37, <4 x float> < float 6.553500e+04, float 0.000000e+00, float 0.000000e+00, float 0.000000e+00 > )               ; <<4 x float>> [#uses=1]
18         %tmp59 = tail call <4 x float> @llvm.x86.sse.max.ss( <4 x float> %tmp48, <4 x float> zeroinitializer )          ; <<4 x float>> [#uses=1]
19         %tmp.upgrd.1 = tail call i32 @llvm.x86.sse.cvttss2si( <4 x float> %tmp59 )              ; <i32> [#uses=1]
20         %tmp69 = trunc i32 %tmp.upgrd.1 to i16          ; <i16> [#uses=1]
21         ret i16 %tmp69
22 }
23
24 define i32 @test2(float %f) {
25 ; CHECK-LABEL: @test2(
26 ; CHECK-NOT: insertelement
27 ; CHECK-NOT: extractelement
28 ; CHECK: ret
29   %tmp5 = fmul float %f, %f
30   %tmp9 = insertelement <4 x float> undef, float %tmp5, i32 0
31   %tmp10 = insertelement <4 x float> %tmp9, float 0.000000e+00, i32 1
32   %tmp11 = insertelement <4 x float> %tmp10, float 0.000000e+00, i32 2
33   %tmp12 = insertelement <4 x float> %tmp11, float 0.000000e+00, i32 3
34   %tmp19 = bitcast <4 x float> %tmp12 to <4 x i32>
35   %tmp21 = extractelement <4 x i32> %tmp19, i32 0
36   ret i32 %tmp21
37 }
38
39 define i64 @test3(float %f, double %d) {
40 ; CHECK-LABEL: @test3(
41 ; CHECK-NOT: insertelement {{.*}} 0.00
42 ; CHECK: ret
43 entry:
44   %v00 = insertelement <4 x float> undef, float %f, i32 0
45   %v01 = insertelement <4 x float> %v00, float 0.000000e+00, i32 1
46   %v02 = insertelement <4 x float> %v01, float 0.000000e+00, i32 2
47   %v03 = insertelement <4 x float> %v02, float 0.000000e+00, i32 3
48   %tmp0 = tail call i32 @llvm.x86.sse.cvtss2si(<4 x float> %v03)
49   %v10 = insertelement <4 x float> undef, float %f, i32 0
50   %v11 = insertelement <4 x float> %v10, float 0.000000e+00, i32 1
51   %v12 = insertelement <4 x float> %v11, float 0.000000e+00, i32 2
52   %v13 = insertelement <4 x float> %v12, float 0.000000e+00, i32 3
53   %tmp1 = tail call i64 @llvm.x86.sse.cvtss2si64(<4 x float> %v13)
54   %v20 = insertelement <4 x float> undef, float %f, i32 0
55   %v21 = insertelement <4 x float> %v20, float 0.000000e+00, i32 1
56   %v22 = insertelement <4 x float> %v21, float 0.000000e+00, i32 2
57   %v23 = insertelement <4 x float> %v22, float 0.000000e+00, i32 3
58   %tmp2 = tail call i32 @llvm.x86.sse.cvttss2si(<4 x float> %v23)
59   %v30 = insertelement <4 x float> undef, float %f, i32 0
60   %v31 = insertelement <4 x float> %v30, float 0.000000e+00, i32 1
61   %v32 = insertelement <4 x float> %v31, float 0.000000e+00, i32 2
62   %v33 = insertelement <4 x float> %v32, float 0.000000e+00, i32 3
63   %tmp3 = tail call i64 @llvm.x86.sse.cvttss2si64(<4 x float> %v33)
64   %v40 = insertelement <2 x double> undef, double %d, i32 0
65   %v41 = insertelement <2 x double> %v40, double 0.000000e+00, i32 1
66   %tmp4 = tail call i32 @llvm.x86.sse2.cvtsd2si(<2 x double> %v41)
67   %v50 = insertelement <2 x double> undef, double %d, i32 0
68   %v51 = insertelement <2 x double> %v50, double 0.000000e+00, i32 1
69   %tmp5 = tail call i64 @llvm.x86.sse2.cvtsd2si64(<2 x double> %v51)
70   %v60 = insertelement <2 x double> undef, double %d, i32 0
71   %v61 = insertelement <2 x double> %v60, double 0.000000e+00, i32 1
72   %tmp6 = tail call i32 @llvm.x86.sse2.cvttsd2si(<2 x double> %v61)
73   %v70 = insertelement <2 x double> undef, double %d, i32 0
74   %v71 = insertelement <2 x double> %v70, double 0.000000e+00, i32 1
75   %tmp7 = tail call i64 @llvm.x86.sse2.cvttsd2si64(<2 x double> %v71)
76   %tmp8 = add i32 %tmp0, %tmp2
77   %tmp9 = add i32 %tmp4, %tmp6
78   %tmp10 = add i32 %tmp8, %tmp9
79   %tmp11 = sext i32 %tmp10 to i64
80   %tmp12 = add i64 %tmp1, %tmp3
81   %tmp13 = add i64 %tmp5, %tmp7
82   %tmp14 = add i64 %tmp12, %tmp13
83   %tmp15 = add i64 %tmp11, %tmp14
84   ret i64 %tmp15
85 }
86
87 define void @get_image() nounwind {
88 ; CHECK-LABEL: @get_image(
89 ; CHECK-NOT: extractelement
90 ; CHECK: unreachable
91 entry:
92   %0 = call i32 @fgetc(i8* null) nounwind               ; <i32> [#uses=1]
93   %1 = trunc i32 %0 to i8         ; <i8> [#uses=1]
94   %tmp2 = insertelement <100 x i8> zeroinitializer, i8 %1, i32 1          ; <<100 x i8>> [#uses=1]
95   %tmp1 = extractelement <100 x i8> %tmp2, i32 0          ; <i8> [#uses=1]
96   %2 = icmp eq i8 %tmp1, 80               ; <i1> [#uses=1]
97   br i1 %2, label %bb2, label %bb3
98
99 bb2:            ; preds = %entry
100   br label %bb3
101
102 bb3:            ; preds = %bb2, %entry
103   unreachable
104 }
105
106 ; PR4340
107 define void @vac(<4 x float>* nocapture %a) nounwind {
108 ; CHECK-LABEL: @vac(
109 ; CHECK-NOT: load
110 ; CHECK: ret
111 entry:
112         %tmp1 = load <4 x float>* %a            ; <<4 x float>> [#uses=1]
113         %vecins = insertelement <4 x float> %tmp1, float 0.000000e+00, i32 0    ; <<4 x float>> [#uses=1]
114         %vecins4 = insertelement <4 x float> %vecins, float 0.000000e+00, i32 1; <<4 x float>> [#uses=1]
115         %vecins6 = insertelement <4 x float> %vecins4, float 0.000000e+00, i32 2; <<4 x float>> [#uses=1]
116         %vecins8 = insertelement <4 x float> %vecins6, float 0.000000e+00, i32 3; <<4 x float>> [#uses=1]
117         store <4 x float> %vecins8, <4 x float>* %a
118         ret void
119 }
120
121 declare i32 @fgetc(i8*)
122
123 declare <4 x float> @llvm.x86.sse.sub.ss(<4 x float>, <4 x float>)
124
125 declare <4 x float> @llvm.x86.sse.mul.ss(<4 x float>, <4 x float>)
126
127 declare <4 x float> @llvm.x86.sse.min.ss(<4 x float>, <4 x float>)
128
129 declare <4 x float> @llvm.x86.sse.max.ss(<4 x float>, <4 x float>)
130
131 declare i32 @llvm.x86.sse.cvtss2si(<4 x float>)
132 declare i64 @llvm.x86.sse.cvtss2si64(<4 x float>)
133 declare i32 @llvm.x86.sse.cvttss2si(<4 x float>)
134 declare i64 @llvm.x86.sse.cvttss2si64(<4 x float>)
135 declare i32 @llvm.x86.sse2.cvtsd2si(<2 x double>)
136 declare i64 @llvm.x86.sse2.cvtsd2si64(<2 x double>)
137 declare i32 @llvm.x86.sse2.cvttsd2si(<2 x double>)
138 declare i64 @llvm.x86.sse2.cvttsd2si64(<2 x double>)
139
140 ; <rdar://problem/6945110>
141 define <4 x i32> @kernel3_vertical(<4 x i16> * %src, <8 x i16> * %foo) nounwind {
142 entry:
143         %tmp = load <4 x i16>* %src
144         %tmp1 = load <8 x i16>* %foo
145 ; CHECK: %tmp2 = shufflevector
146         %tmp2 = shufflevector <4 x i16> %tmp, <4 x i16> undef, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 undef, i32 undef, i32 undef, i32 undef>
147 ; pmovzxwd ignores the upper 64-bits of its input; -instcombine should remove this shuffle:
148 ; CHECK-NOT: shufflevector
149         %tmp3 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 8, i32 9, i32 10, i32 11, i32 4, i32 5, i32 6, i32 7>
150 ; CHECK-NEXT: pmovzxwd
151         %0 = call <4 x i32> @llvm.x86.sse41.pmovzxwd(<8 x i16> %tmp3)
152         ret <4 x i32> %0
153 }
154 declare <4 x i32> @llvm.x86.sse41.pmovzxwd(<8 x i16>) nounwind readnone
155
156 define <4 x float> @dead_shuffle_elt(<4 x float> %x, <2 x float> %y) nounwind {
157 entry:
158 ; CHECK-LABEL: define <4 x float> @dead_shuffle_elt(
159 ; CHECK: shufflevector <2 x float> %y, <2 x float> undef, <4 x i32> <i32 0, i32 1, i32 undef, i32 undef>
160   %shuffle.i = shufflevector <2 x float> %y, <2 x float> %y, <4 x i32> <i32 0, i32 1, i32 0, i32 1>
161   %shuffle9.i = shufflevector <4 x float> %x, <4 x float> %shuffle.i, <4 x i32> <i32 4, i32 5, i32 2, i32 3>
162   ret <4 x float> %shuffle9.i
163 }
164
165 define <2 x float> @test_fptrunc(double %f) {
166 ; CHECK-LABEL: @test_fptrunc(
167 ; CHECK: insertelement
168 ; CHECK: insertelement
169 ; CHECK-NOT: insertelement
170   %tmp9 = insertelement <4 x double> undef, double %f, i32 0
171   %tmp10 = insertelement <4 x double> %tmp9, double 0.000000e+00, i32 1
172   %tmp11 = insertelement <4 x double> %tmp10, double 0.000000e+00, i32 2
173   %tmp12 = insertelement <4 x double> %tmp11, double 0.000000e+00, i32 3
174   %tmp5 = fptrunc <4 x double> %tmp12 to <4 x float>
175   %ret = shufflevector <4 x float> %tmp5, <4 x float> undef, <2 x i32> <i32 0, i32 1>
176   ret <2 x float> %ret
177 }
178
179 define <2 x double> @test_fpext(float %f) {
180 ; CHECK-LABEL: @test_fpext(
181 ; CHECK: insertelement
182 ; CHECK: insertelement
183 ; CHECK-NOT: insertelement
184   %tmp9 = insertelement <4 x float> undef, float %f, i32 0
185   %tmp10 = insertelement <4 x float> %tmp9, float 0.000000e+00, i32 1
186   %tmp11 = insertelement <4 x float> %tmp10, float 0.000000e+00, i32 2
187   %tmp12 = insertelement <4 x float> %tmp11, float 0.000000e+00, i32 3
188   %tmp5 = fpext <4 x float> %tmp12 to <4 x double>
189   %ret = shufflevector <4 x double> %tmp5, <4 x double> undef, <2 x i32> <i32 0, i32 1>
190   ret <2 x double> %ret
191 }
192
193 define <4 x float> @test_select(float %f, float %g) {
194 ; CHECK-LABEL: @test_select(
195 ; CHECK: %a0 = insertelement <4 x float> undef, float %f, i32 0
196 ; CHECK-NOT: insertelement
197 ; CHECK: %a3 = insertelement <4 x float> %a0, float 3.000000e+00, i32 3
198 ; CHECK-NOT: insertelement
199 ; CHECK: %ret = select <4 x i1> <i1 true, i1 false, i1 false, i1 true>, <4 x float> %a3, <4 x float> <float undef, float 4.000000e+00, float 5.000000e+00, float undef>
200   %a0 = insertelement <4 x float> undef, float %f, i32 0
201   %a1 = insertelement <4 x float> %a0, float 1.000000e+00, i32 1
202   %a2 = insertelement <4 x float> %a1, float 2.000000e+00, i32 2
203   %a3 = insertelement <4 x float> %a2, float 3.000000e+00, i32 3
204   %b0 = insertelement <4 x float> undef, float %g, i32 0
205   %b1 = insertelement <4 x float> %b0, float 4.000000e+00, i32 1
206   %b2 = insertelement <4 x float> %b1, float 5.000000e+00, i32 2
207   %b3 = insertelement <4 x float> %b2, float 6.000000e+00, i32 3
208   %ret = select <4 x i1> <i1 true, i1 false, i1 false, i1 true>, <4 x float> %a3, <4 x float> %b3
209   ret <4 x float> %ret
210 }
211
212 ; We should optimize these two redundant insertqi into one
213 ; CHECK: define <2 x i64> @testInsertTwice(<2 x i64> %v, <2 x i64> %i)
214 define <2 x i64> @testInsertTwice(<2 x i64> %v, <2 x i64> %i) {
215 ; CHECK: call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 32)
216 ; CHECK-NOT: insertqi
217   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 32)
218   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 32, i8 32)
219   ret <2 x i64> %2
220 }
221
222 ; The result of this insert is the second arg, since the top 64 bits of
223 ; the result are undefined, and we copy the bottom 64 bits from the
224 ; second arg
225 ; CHECK: define <2 x i64> @testInsert64Bits(<2 x i64> %v, <2 x i64> %i)
226 define <2 x i64> @testInsert64Bits(<2 x i64> %v, <2 x i64> %i) {
227 ; CHECK: ret <2 x i64> %i
228   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 64, i8 0)
229   ret <2 x i64> %1
230 }
231
232 ; Test the several types of ranges and ordering that exist for two insertqi
233 ; CHECK: define <2 x i64> @testInsertContainedRange(<2 x i64> %v, <2 x i64> %i)
234 define <2 x i64> @testInsertContainedRange(<2 x i64> %v, <2 x i64> %i) {
235 ; CHECK: %[[RES:.*]] = call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 0)
236 ; CHECK: ret <2 x i64> %[[RES]]
237   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 0)
238   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 16, i8 16)
239   ret <2 x i64> %2
240 }
241
242 ; CHECK: define <2 x i64> @testInsertContainedRange_2(<2 x i64> %v, <2 x i64> %i)
243 define <2 x i64> @testInsertContainedRange_2(<2 x i64> %v, <2 x i64> %i) {
244 ; CHECK: %[[RES:.*]] = call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 0)
245 ; CHECK: ret <2 x i64> %[[RES]]
246   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 16, i8 16)
247   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 32, i8 0)
248   ret <2 x i64> %2
249 }
250
251 ; CHECK: define <2 x i64> @testInsertOverlappingRange(<2 x i64> %v, <2 x i64> %i)
252 define <2 x i64> @testInsertOverlappingRange(<2 x i64> %v, <2 x i64> %i) {
253 ; CHECK: %[[RES:.*]] = call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 48, i8 0)
254 ; CHECK: ret <2 x i64> %[[RES]]
255   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 0)
256   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 32, i8 16)
257   ret <2 x i64> %2
258 }
259
260 ; CHECK: define <2 x i64> @testInsertOverlappingRange_2(<2 x i64> %v, <2 x i64> %i)
261 define <2 x i64> @testInsertOverlappingRange_2(<2 x i64> %v, <2 x i64> %i) {
262 ; CHECK: %[[RES:.*]] = call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 48, i8 0)
263 ; CHECK: ret <2 x i64> %[[RES]]
264   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 16)
265   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 32, i8 0)
266   ret <2 x i64> %2
267 }
268
269 ; CHECK: define <2 x i64> @testInsertAdjacentRange(<2 x i64> %v, <2 x i64> %i)
270 define <2 x i64> @testInsertAdjacentRange(<2 x i64> %v, <2 x i64> %i) {
271 ; CHECK: %[[RES:.*]] = call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 48, i8 0)
272 ; CHECK: ret <2 x i64> %[[RES]]
273   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 32, i8 0)
274   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 16, i8 32)
275   ret <2 x i64> %2
276 }
277
278 ; CHECK: define <2 x i64> @testInsertAdjacentRange_2(<2 x i64> %v, <2 x i64> %i)
279 define <2 x i64> @testInsertAdjacentRange_2(<2 x i64> %v, <2 x i64> %i) {
280 ; CHECK: %[[RES:.*]] = call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 48, i8 0)
281 ; CHECK: ret <2 x i64> %[[RES]]
282   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 16, i8 32)
283   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 32, i8 0)
284   ret <2 x i64> %2
285 }
286
287 ; CHECK: define <2 x i64> @testInsertDisjointRange(<2 x i64> %v, <2 x i64> %i)
288 define <2 x i64> @testInsertDisjointRange(<2 x i64> %v, <2 x i64> %i) {
289 ; CHECK: tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 16, i8 0)
290 ; CHECK: tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 16, i8 32)
291   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 16, i8 0)
292   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 16, i8 32)
293   ret <2 x i64> %2
294 }
295
296 ; CHECK: define <2 x i64> @testInsertDisjointRange_2(<2 x i64> %v, <2 x i64> %i)
297 define <2 x i64> @testInsertDisjointRange_2(<2 x i64> %v, <2 x i64> %i) {
298 ; CHECK:  tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 16, i8 0)
299 ; CHECK:  tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 16, i8 32)
300   %1 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %v, <2 x i64> %i, i8 16, i8 0)
301   %2 = tail call <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64> %1, <2 x i64> %i, i8 16, i8 32)
302   ret <2 x i64> %2
303 }
304
305
306 ; CHECK: declare <2 x i64> @llvm.x86.sse4a.insertqi
307 declare <2 x i64> @llvm.x86.sse4a.insertqi(<2 x i64>, <2 x i64>, i8, i8) nounwind
308
309 declare <4 x float> @llvm.x86.avx.vpermilvar.ps(<4 x float>, <4 x i32>)
310 define <4 x float> @test_vpermilvar_ps(<4 x float> %v) {
311 ; CHECK-LABEL: @test_vpermilvar_ps(
312 ; CHECK: shufflevector <4 x float> %v, <4 x float> undef, <4 x i32> <i32 3, i32 2, i32 1, i32 0>
313   %a = tail call <4 x float> @llvm.x86.avx.vpermilvar.ps(<4 x float> %v, <4 x i32> <i32 3, i32 2, i32 1, i32 0>)
314   ret <4 x float> %a
315 }
316
317 declare <8 x float> @llvm.x86.avx.vpermilvar.ps.256(<8 x float>, <8 x i32>)
318 define <8 x float> @test_vpermilvar_ps_256(<8 x float> %v) {
319 ; CHECK-LABEL: @test_vpermilvar_ps_256(
320 ; CHECK: shufflevector <8 x float> %v, <8 x float> undef, <8 x i32> <i32 7, i32 6, i32 5, i32 4, i32 3, i32 2, i32 1, i32 0>
321   %a = tail call <8 x float> @llvm.x86.avx.vpermilvar.ps.256(<8 x float> %v, <8 x i32> <i32 7, i32 6, i32 5, i32 4, i32 3, i32 2, i32 1, i32 0>)
322   ret <8 x float> %a
323 }
324
325 declare <2 x double> @llvm.x86.avx.vpermilvar.pd(<2 x double>, <2 x i32>)
326 define <2 x double> @test_vpermilvar_pd(<2 x double> %v) {
327 ; CHECK-LABEL: @test_vpermilvar_pd(
328 ; CHECK: shufflevector <2 x double> %v, <2 x double> undef, <2 x i32> <i32 1, i32 0>
329   %a = tail call <2 x double> @llvm.x86.avx.vpermilvar.pd(<2 x double> %v, <2 x i32> <i32 1, i32 0>)
330   ret <2 x double> %a
331 }
332
333 declare <4 x double> @llvm.x86.avx.vpermilvar.pd.256(<4 x double>, <4 x i32>)
334 define <4 x double> @test_vpermilvar_pd_256(<4 x double> %v) {
335 ; CHECK-LABEL: @test_vpermilvar_pd_256(
336 ; CHECK: shufflevector <4 x double> %v, <4 x double> undef, <4 x i32> <i32 3, i32 2, i32 1, i32 0>
337   %a = tail call <4 x double> @llvm.x86.avx.vpermilvar.pd.256(<4 x double> %v, <4 x i32> <i32 3, i32 2, i32 1, i32 0>)
338   ret <4 x double> %a
339 }