AVX-512 set: added mask operations, lowering BUILD_VECTOR for i1 vector types.
[oota-llvm.git] / lib / Target / X86 / X86InstrAVX512.td
1 // Bitcasts between 512-bit vector types. Return the original type since
2 // no instruction is needed for the conversion
3 let Predicates = [HasAVX512] in {
4   def : Pat<(v8f64  (bitconvert (v16f32 VR512:$src))), (v8f64 VR512:$src)>;
5   def : Pat<(v8f64  (bitconvert (v16i32 VR512:$src))), (v8f64 VR512:$src)>;
6   def : Pat<(v8f64  (bitconvert (v8i64 VR512:$src))),  (v8f64 VR512:$src)>;
7   def : Pat<(v16f32 (bitconvert (v16i32 VR512:$src))), (v16f32 VR512:$src)>;
8   def : Pat<(v16f32 (bitconvert (v8i64 VR512:$src))),  (v16f32 VR512:$src)>;
9   def : Pat<(v16f32 (bitconvert (v8f64 VR512:$src))),  (v16f32 VR512:$src)>;
10   def : Pat<(v8i64  (bitconvert (v16f32 VR512:$src))), (v8i64 VR512:$src)>;
11   def : Pat<(v8i64  (bitconvert (v16i32 VR512:$src))), (v8i64 VR512:$src)>;
12   def : Pat<(v8i64  (bitconvert (v8f64 VR512:$src))),  (v8i64 VR512:$src)>;
13   def : Pat<(v16i32 (bitconvert (v16f32 VR512:$src))), (v16i32 VR512:$src)>;
14   def : Pat<(v16i32 (bitconvert (v8i64 VR512:$src))),  (v16i32 VR512:$src)>;
15   def : Pat<(v16i32 (bitconvert (v8f64 VR512:$src))),  (v16i32 VR512:$src)>;
16   def : Pat<(v8f64  (bitconvert (v8i64 VR512:$src))),  (v8f64 VR512:$src)>;
17
18   def : Pat<(v2i64 (bitconvert (v4i32 VR128X:$src))), (v2i64 VR128X:$src)>;
19   def : Pat<(v2i64 (bitconvert (v8i16 VR128X:$src))), (v2i64 VR128X:$src)>;
20   def : Pat<(v2i64 (bitconvert (v16i8 VR128X:$src))), (v2i64 VR128X:$src)>;
21   def : Pat<(v2i64 (bitconvert (v2f64 VR128X:$src))), (v2i64 VR128X:$src)>;
22   def : Pat<(v2i64 (bitconvert (v4f32 VR128X:$src))), (v2i64 VR128X:$src)>;
23   def : Pat<(v4i32 (bitconvert (v2i64 VR128X:$src))), (v4i32 VR128X:$src)>;
24   def : Pat<(v4i32 (bitconvert (v8i16 VR128X:$src))), (v4i32 VR128X:$src)>;
25   def : Pat<(v4i32 (bitconvert (v16i8 VR128X:$src))), (v4i32 VR128X:$src)>;
26   def : Pat<(v4i32 (bitconvert (v2f64 VR128X:$src))), (v4i32 VR128X:$src)>;
27   def : Pat<(v4i32 (bitconvert (v4f32 VR128X:$src))), (v4i32 VR128X:$src)>;
28   def : Pat<(v8i16 (bitconvert (v2i64 VR128X:$src))), (v8i16 VR128X:$src)>;
29   def : Pat<(v8i16 (bitconvert (v4i32 VR128X:$src))), (v8i16 VR128X:$src)>;
30   def : Pat<(v8i16 (bitconvert (v16i8 VR128X:$src))), (v8i16 VR128X:$src)>;
31   def : Pat<(v8i16 (bitconvert (v2f64 VR128X:$src))), (v8i16 VR128X:$src)>;
32   def : Pat<(v8i16 (bitconvert (v4f32 VR128X:$src))), (v8i16 VR128X:$src)>;
33   def : Pat<(v16i8 (bitconvert (v2i64 VR128X:$src))), (v16i8 VR128X:$src)>;
34   def : Pat<(v16i8 (bitconvert (v4i32 VR128X:$src))), (v16i8 VR128X:$src)>;
35   def : Pat<(v16i8 (bitconvert (v8i16 VR128X:$src))), (v16i8 VR128X:$src)>;
36   def : Pat<(v16i8 (bitconvert (v2f64 VR128X:$src))), (v16i8 VR128X:$src)>;
37   def : Pat<(v16i8 (bitconvert (v4f32 VR128X:$src))), (v16i8 VR128X:$src)>;
38   def : Pat<(v4f32 (bitconvert (v2i64 VR128X:$src))), (v4f32 VR128X:$src)>;
39   def : Pat<(v4f32 (bitconvert (v4i32 VR128X:$src))), (v4f32 VR128X:$src)>;
40   def : Pat<(v4f32 (bitconvert (v8i16 VR128X:$src))), (v4f32 VR128X:$src)>;
41   def : Pat<(v4f32 (bitconvert (v16i8 VR128X:$src))), (v4f32 VR128X:$src)>;
42   def : Pat<(v4f32 (bitconvert (v2f64 VR128X:$src))), (v4f32 VR128X:$src)>;
43   def : Pat<(v2f64 (bitconvert (v2i64 VR128X:$src))), (v2f64 VR128X:$src)>;
44   def : Pat<(v2f64 (bitconvert (v4i32 VR128X:$src))), (v2f64 VR128X:$src)>;
45   def : Pat<(v2f64 (bitconvert (v8i16 VR128X:$src))), (v2f64 VR128X:$src)>;
46   def : Pat<(v2f64 (bitconvert (v16i8 VR128X:$src))), (v2f64 VR128X:$src)>;
47   def : Pat<(v2f64 (bitconvert (v4f32 VR128X:$src))), (v2f64 VR128X:$src)>;
48
49 // Bitcasts between 256-bit vector types. Return the original type since
50 // no instruction is needed for the conversion
51   def : Pat<(v4f64  (bitconvert (v8f32 VR256X:$src))),  (v4f64 VR256X:$src)>;
52   def : Pat<(v4f64  (bitconvert (v8i32 VR256X:$src))),  (v4f64 VR256X:$src)>;
53   def : Pat<(v4f64  (bitconvert (v4i64 VR256X:$src))),  (v4f64 VR256X:$src)>;
54   def : Pat<(v4f64  (bitconvert (v16i16 VR256X:$src))), (v4f64 VR256X:$src)>;
55   def : Pat<(v4f64  (bitconvert (v32i8 VR256X:$src))),  (v4f64 VR256X:$src)>;
56   def : Pat<(v8f32  (bitconvert (v8i32 VR256X:$src))),  (v8f32 VR256X:$src)>;
57   def : Pat<(v8f32  (bitconvert (v4i64 VR256X:$src))),  (v8f32 VR256X:$src)>;
58   def : Pat<(v8f32  (bitconvert (v4f64 VR256X:$src))),  (v8f32 VR256X:$src)>;
59   def : Pat<(v8f32  (bitconvert (v32i8 VR256X:$src))),  (v8f32 VR256X:$src)>;
60   def : Pat<(v8f32  (bitconvert (v16i16 VR256X:$src))), (v8f32 VR256X:$src)>;
61   def : Pat<(v4i64  (bitconvert (v8f32 VR256X:$src))),  (v4i64 VR256X:$src)>;
62   def : Pat<(v4i64  (bitconvert (v8i32 VR256X:$src))),  (v4i64 VR256X:$src)>;
63   def : Pat<(v4i64  (bitconvert (v4f64 VR256X:$src))),  (v4i64 VR256X:$src)>;
64   def : Pat<(v4i64  (bitconvert (v32i8 VR256X:$src))),  (v4i64 VR256X:$src)>;
65   def : Pat<(v4i64  (bitconvert (v16i16 VR256X:$src))), (v4i64 VR256X:$src)>;
66   def : Pat<(v32i8  (bitconvert (v4f64 VR256X:$src))),  (v32i8 VR256X:$src)>;
67   def : Pat<(v32i8  (bitconvert (v4i64 VR256X:$src))),  (v32i8 VR256X:$src)>;
68   def : Pat<(v32i8  (bitconvert (v8f32 VR256X:$src))),  (v32i8 VR256X:$src)>;
69   def : Pat<(v32i8  (bitconvert (v8i32 VR256X:$src))),  (v32i8 VR256X:$src)>;
70   def : Pat<(v32i8  (bitconvert (v16i16 VR256X:$src))), (v32i8 VR256X:$src)>;
71   def : Pat<(v8i32  (bitconvert (v32i8 VR256X:$src))),  (v8i32 VR256X:$src)>;
72   def : Pat<(v8i32  (bitconvert (v16i16 VR256X:$src))), (v8i32 VR256X:$src)>;
73   def : Pat<(v8i32  (bitconvert (v8f32 VR256X:$src))),  (v8i32 VR256X:$src)>;
74   def : Pat<(v8i32  (bitconvert (v4i64 VR256X:$src))),  (v8i32 VR256X:$src)>;
75   def : Pat<(v8i32  (bitconvert (v4f64 VR256X:$src))),  (v8i32 VR256X:$src)>;
76   def : Pat<(v16i16 (bitconvert (v8f32 VR256X:$src))),  (v16i16 VR256X:$src)>;
77   def : Pat<(v16i16 (bitconvert (v8i32 VR256X:$src))),  (v16i16 VR256X:$src)>;
78   def : Pat<(v16i16 (bitconvert (v4i64 VR256X:$src))),  (v16i16 VR256X:$src)>;
79   def : Pat<(v16i16 (bitconvert (v4f64 VR256X:$src))),  (v16i16 VR256X:$src)>;
80   def : Pat<(v16i16 (bitconvert (v32i8 VR256X:$src))),  (v16i16 VR256X:$src)>;
81 }
82
83 //===----------------------------------------------------------------------===//
84 // AVX-512 - VECTOR INSERT
85 //
86 // -- 32x8 form --
87 let neverHasSideEffects = 1, ExeDomain = SSEPackedSingle in {
88 def VINSERTF32x4rr : AVX512AIi8<0x18, MRMSrcReg, (outs VR512:$dst),
89           (ins VR512:$src1, VR128X:$src2, i8imm:$src3),
90           "vinsertf32x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
91           []>, EVEX_4V, EVEX_V512;
92 let mayLoad = 1 in
93 def VINSERTF32x4rm : AVX512AIi8<0x18, MRMSrcMem, (outs VR512:$dst),
94           (ins VR512:$src1, f128mem:$src2, i8imm:$src3),
95           "vinsertf32x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
96           []>, EVEX_4V, EVEX_V512, EVEX_CD8<32, CD8VT4>;
97 }
98
99 // -- 64x4 fp form --
100 let neverHasSideEffects = 1, ExeDomain = SSEPackedDouble in {
101 def VINSERTF64x4rr : AVX512AIi8<0x1a, MRMSrcReg, (outs VR512:$dst),
102           (ins VR512:$src1, VR256X:$src2, i8imm:$src3),
103           "vinsertf64x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
104           []>, EVEX_4V, EVEX_V512, VEX_W;
105 let mayLoad = 1 in
106 def VINSERTF64x4rm : AVX512AIi8<0x1a, MRMSrcMem, (outs VR512:$dst),
107           (ins VR512:$src1, i256mem:$src2, i8imm:$src3),
108           "vinsertf64x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
109           []>, EVEX_4V, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT4>;
110 }
111 // -- 32x4 integer form --
112 let neverHasSideEffects = 1 in {
113 def VINSERTI32x4rr : AVX512AIi8<0x38, MRMSrcReg, (outs VR512:$dst),
114           (ins VR512:$src1, VR128X:$src2, i8imm:$src3),
115           "vinserti32x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
116           []>, EVEX_4V, EVEX_V512;
117 let mayLoad = 1 in
118 def VINSERTI32x4rm : AVX512AIi8<0x38, MRMSrcMem, (outs VR512:$dst),
119           (ins VR512:$src1, i128mem:$src2, i8imm:$src3),
120           "vinserti32x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
121           []>, EVEX_4V, EVEX_V512, EVEX_CD8<32, CD8VT4>;
122
123 }
124
125 let neverHasSideEffects = 1 in {
126 // -- 64x4 form --
127 def VINSERTI64x4rr : AVX512AIi8<0x3a, MRMSrcReg, (outs VR512:$dst),
128           (ins VR512:$src1, VR256X:$src2, i8imm:$src3),
129           "vinserti64x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
130           []>, EVEX_4V, EVEX_V512, VEX_W;
131 let mayLoad = 1 in
132 def VINSERTI64x4rm : AVX512AIi8<0x3a, MRMSrcMem, (outs VR512:$dst),
133           (ins VR512:$src1, i256mem:$src2, i8imm:$src3),
134           "vinserti64x4\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
135           []>, EVEX_4V, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT4>;
136 }
137
138 def : Pat<(vinsert128_insert:$ins (v16f32 VR512:$src1), (v4f32 VR128X:$src2),
139            (iPTR imm)), (VINSERTF32x4rr VR512:$src1, VR128X:$src2,
140                         (INSERT_get_vinsert128_imm VR512:$ins))>;
141 def : Pat<(vinsert128_insert:$ins (v8f64  VR512:$src1), (v2f64 VR128X:$src2),
142            (iPTR imm)), (VINSERTF32x4rr VR512:$src1, VR128X:$src2,
143                         (INSERT_get_vinsert128_imm VR512:$ins))>;
144 def : Pat<(vinsert128_insert:$ins (v8i64  VR512:$src1), (v2i64 VR128X:$src2),
145            (iPTR imm)), (VINSERTI32x4rr VR512:$src1, VR128X:$src2,
146                         (INSERT_get_vinsert128_imm VR512:$ins))>;
147 def : Pat<(vinsert128_insert:$ins (v16i32 VR512:$src1), (v4i32 VR128X:$src2),
148            (iPTR imm)), (VINSERTI32x4rr VR512:$src1, VR128X:$src2,
149                         (INSERT_get_vinsert128_imm VR512:$ins))>;
150                         
151 def : Pat<(vinsert128_insert:$ins (v16f32 VR512:$src1), (loadv4f32 addr:$src2),
152            (iPTR imm)), (VINSERTF32x4rm VR512:$src1, addr:$src2,
153                         (INSERT_get_vinsert128_imm VR512:$ins))>;
154 def : Pat<(vinsert128_insert:$ins (v16i32 VR512:$src1),
155                         (bc_v4i32 (loadv2i64 addr:$src2)),
156            (iPTR imm)), (VINSERTI32x4rm VR512:$src1, addr:$src2,
157                         (INSERT_get_vinsert128_imm VR512:$ins))>;
158 def : Pat<(vinsert128_insert:$ins (v8f64  VR512:$src1), (loadv2f64 addr:$src2),
159            (iPTR imm)), (VINSERTF32x4rm VR512:$src1, addr:$src2,
160                         (INSERT_get_vinsert128_imm VR512:$ins))>;
161 def : Pat<(vinsert128_insert:$ins (v8i64  VR512:$src1), (loadv2i64 addr:$src2),
162            (iPTR imm)), (VINSERTI32x4rm VR512:$src1, addr:$src2,
163                         (INSERT_get_vinsert128_imm VR512:$ins))>;
164
165 def : Pat<(vinsert256_insert:$ins (v16f32  VR512:$src1), (v8f32 VR256X:$src2),
166            (iPTR imm)), (VINSERTF64x4rr VR512:$src1, VR256X:$src2,
167                         (INSERT_get_vinsert256_imm VR512:$ins))>;
168 def : Pat<(vinsert256_insert:$ins (v8f64  VR512:$src1), (v4f64 VR256X:$src2),
169            (iPTR imm)), (VINSERTF64x4rr VR512:$src1, VR256X:$src2,
170                         (INSERT_get_vinsert256_imm VR512:$ins))>;
171 def : Pat<(vinsert128_insert:$ins (v8i64  VR512:$src1), (v4i64 VR256X:$src2),
172            (iPTR imm)), (VINSERTI64x4rr VR512:$src1, VR256X:$src2,
173                         (INSERT_get_vinsert256_imm VR512:$ins))>;
174 def : Pat<(vinsert128_insert:$ins (v16i32 VR512:$src1), (v8i32 VR256X:$src2),
175            (iPTR imm)), (VINSERTI64x4rr VR512:$src1, VR256X:$src2,
176                         (INSERT_get_vinsert256_imm VR512:$ins))>;
177
178 def : Pat<(vinsert256_insert:$ins (v16f32  VR512:$src1), (loadv8f32 addr:$src2),
179            (iPTR imm)), (VINSERTF64x4rm VR512:$src1, addr:$src2,
180                         (INSERT_get_vinsert256_imm VR512:$ins))>;
181 def : Pat<(vinsert256_insert:$ins (v8f64  VR512:$src1), (loadv4f64 addr:$src2),
182            (iPTR imm)), (VINSERTF64x4rm VR512:$src1, addr:$src2,
183                         (INSERT_get_vinsert256_imm VR512:$ins))>;
184 def : Pat<(vinsert256_insert:$ins (v8i64  VR512:$src1), (loadv4i64 addr:$src2),
185            (iPTR imm)), (VINSERTI64x4rm VR512:$src1, addr:$src2,
186                         (INSERT_get_vinsert256_imm VR512:$ins))>;
187 def : Pat<(vinsert256_insert:$ins (v16i32 VR512:$src1),
188                         (bc_v8i32 (loadv4i64 addr:$src2)),
189            (iPTR imm)), (VINSERTI64x4rm VR512:$src1, addr:$src2,
190                         (INSERT_get_vinsert256_imm VR512:$ins))>;
191
192 // vinsertps - insert f32 to XMM
193 def VINSERTPSzrr : AVX512AIi8<0x21, MRMSrcReg, (outs VR128X:$dst),
194       (ins VR128X:$src1, VR128X:$src2, u32u8imm:$src3),
195       "vinsertps{z}\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
196       [(set VR128X:$dst, (X86insrtps VR128X:$src1, VR128X:$src2, imm:$src3))]>,
197       EVEX_4V;
198 def VINSERTPSzrm: AVX512AIi8<0x21, MRMSrcMem, (outs VR128X:$dst),
199       (ins VR128X:$src1, f32mem:$src2, u32u8imm:$src3),
200       "vinsertps{z}\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
201       [(set VR128X:$dst, (X86insrtps VR128X:$src1,
202                           (v4f32 (scalar_to_vector (loadf32 addr:$src2))),
203                           imm:$src3))]>, EVEX_4V, EVEX_CD8<32, CD8VT1>;
204
205 //===----------------------------------------------------------------------===//
206 // AVX-512 VECTOR EXTRACT
207 //---
208 let neverHasSideEffects = 1, ExeDomain = SSEPackedSingle in {
209 // -- 32x4 form --
210 def VEXTRACTF32x4rr : AVX512AIi8<0x19, MRMDestReg, (outs VR128X:$dst),
211           (ins VR512:$src1, i8imm:$src2),
212           "vextractf32x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
213           []>, EVEX, EVEX_V512;
214 def VEXTRACTF32x4mr : AVX512AIi8<0x19, MRMDestMem, (outs),
215           (ins f128mem:$dst, VR512:$src1, i8imm:$src2),
216           "vextractf32x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
217           []>, EVEX, EVEX_V512, EVEX_CD8<32, CD8VT4>;
218
219 // -- 64x4 form --
220 def VEXTRACTF64x4rr : AVX512AIi8<0x1b, MRMDestReg, (outs VR256X:$dst),
221           (ins VR512:$src1, i8imm:$src2),
222           "vextractf64x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
223           []>, EVEX, EVEX_V512, VEX_W;
224 let mayStore = 1 in
225 def VEXTRACTF64x4mr : AVX512AIi8<0x1b, MRMDestMem, (outs),
226           (ins f256mem:$dst, VR512:$src1, i8imm:$src2),
227           "vextractf64x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
228           []>, EVEX, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT4>;
229 }
230
231 let neverHasSideEffects = 1 in {
232 // -- 32x4 form --
233 def VEXTRACTI32x4rr : AVX512AIi8<0x39, MRMDestReg, (outs VR128X:$dst),
234           (ins VR512:$src1, i8imm:$src2),
235           "vextracti32x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
236           []>, EVEX, EVEX_V512;
237 def VEXTRACTI32x4mr : AVX512AIi8<0x39, MRMDestMem, (outs),
238           (ins i128mem:$dst, VR512:$src1, i8imm:$src2),
239           "vextracti32x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
240           []>, EVEX, EVEX_V512, EVEX_CD8<32, CD8VT4>;
241
242 // -- 64x4 form --
243 def VEXTRACTI64x4rr : AVX512AIi8<0x3b, MRMDestReg, (outs VR256X:$dst),
244           (ins VR512:$src1, i8imm:$src2),
245           "vextracti64x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
246           []>, EVEX, EVEX_V512, VEX_W;
247 let mayStore = 1 in
248 def VEXTRACTI64x4mr : AVX512AIi8<0x3b, MRMDestMem, (outs),
249           (ins i256mem:$dst, VR512:$src1, i8imm:$src2),
250           "vextracti64x4\t{$src2, $src1, $dst|$dst, $src1, $src2}",
251           []>, EVEX, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT4>;
252 }
253
254 def : Pat<(vextract128_extract:$ext (v16f32 VR512:$src1), (iPTR imm)),
255           (v4f32 (VEXTRACTF32x4rr VR512:$src1,
256                   (EXTRACT_get_vextract128_imm VR128X:$ext)))>;
257
258 def : Pat<(vextract128_extract:$ext VR512:$src1, (iPTR imm)),
259           (v4i32 (VEXTRACTF32x4rr VR512:$src1,
260                   (EXTRACT_get_vextract128_imm VR128X:$ext)))>;
261
262 def : Pat<(vextract128_extract:$ext (v8f64 VR512:$src1), (iPTR imm)),
263           (v2f64 (VEXTRACTF32x4rr VR512:$src1,
264                   (EXTRACT_get_vextract128_imm VR128X:$ext)))>;
265
266 def : Pat<(vextract128_extract:$ext (v8i64 VR512:$src1), (iPTR imm)),
267           (v2i64 (VEXTRACTI32x4rr VR512:$src1,
268                   (EXTRACT_get_vextract128_imm VR128X:$ext)))>;
269
270
271 def : Pat<(vextract256_extract:$ext (v16f32 VR512:$src1), (iPTR imm)),
272           (v8f32 (VEXTRACTF64x4rr VR512:$src1,
273                   (EXTRACT_get_vextract256_imm VR256X:$ext)))>;
274
275 def : Pat<(vextract256_extract:$ext (v16i32 VR512:$src1), (iPTR imm)),
276           (v8i32 (VEXTRACTI64x4rr VR512:$src1,
277                     (EXTRACT_get_vextract256_imm VR256X:$ext)))>;
278
279 def : Pat<(vextract256_extract:$ext (v8f64 VR512:$src1), (iPTR imm)),
280           (v4f64 (VEXTRACTF64x4rr VR512:$src1,
281                   (EXTRACT_get_vextract256_imm VR256X:$ext)))>;
282
283 def : Pat<(vextract256_extract:$ext (v8i64 VR512:$src1), (iPTR imm)),
284           (v4i64 (VEXTRACTI64x4rr VR512:$src1,
285                   (EXTRACT_get_vextract256_imm VR256X:$ext)))>;
286
287 // A 256-bit subvector extract from the first 512-bit vector position
288 // is a subregister copy that needs no instruction.
289 def : Pat<(v8i32 (extract_subvector (v16i32 VR512:$src), (iPTR 0))),
290           (v8i32 (EXTRACT_SUBREG (v16i32 VR512:$src), sub_ymm))>;
291 def : Pat<(v8f32 (extract_subvector (v16f32 VR512:$src), (iPTR 0))),
292           (v8f32 (EXTRACT_SUBREG (v16f32 VR512:$src), sub_ymm))>;
293 def : Pat<(v4i64 (extract_subvector (v8i64 VR512:$src), (iPTR 0))),
294           (v4i64 (EXTRACT_SUBREG (v8i64 VR512:$src), sub_ymm))>;
295 def : Pat<(v4f64 (extract_subvector (v8f64 VR512:$src), (iPTR 0))),
296           (v4f64 (EXTRACT_SUBREG (v8f64 VR512:$src), sub_ymm))>;
297
298 // zmm -> xmm
299 def : Pat<(v4i32 (extract_subvector (v16i32 VR512:$src), (iPTR 0))),
300           (v4i32 (EXTRACT_SUBREG (v16i32 VR512:$src), sub_xmm))>;
301 def : Pat<(v2i64 (extract_subvector (v8i64 VR512:$src), (iPTR 0))),
302           (v2i64 (EXTRACT_SUBREG (v8i64 VR512:$src), sub_xmm))>;
303 def : Pat<(v2f64 (extract_subvector (v8f64 VR512:$src), (iPTR 0))),
304           (v2f64 (EXTRACT_SUBREG (v8f64 VR512:$src), sub_xmm))>;
305 def : Pat<(v4f32 (extract_subvector (v16f32 VR512:$src), (iPTR 0))),
306           (v4f32 (EXTRACT_SUBREG (v16f32 VR512:$src), sub_xmm))>;
307
308
309 // A 128-bit subvector insert to the first 512-bit vector position
310 // is a subregister copy that needs no instruction.
311 def : Pat<(insert_subvector undef, (v2i64 VR128X:$src), (iPTR 0)),
312           (INSERT_SUBREG (v8i64 (IMPLICIT_DEF)),
313           (INSERT_SUBREG (v4i64 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
314           sub_ymm)>;
315 def : Pat<(insert_subvector undef, (v2f64 VR128X:$src), (iPTR 0)),
316           (INSERT_SUBREG (v8f64 (IMPLICIT_DEF)),
317           (INSERT_SUBREG (v4f64 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
318           sub_ymm)>;
319 def : Pat<(insert_subvector undef, (v4i32 VR128X:$src), (iPTR 0)),
320           (INSERT_SUBREG (v16i32 (IMPLICIT_DEF)),
321           (INSERT_SUBREG (v8i32 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
322           sub_ymm)>;
323 def : Pat<(insert_subvector undef, (v4f32 VR128X:$src), (iPTR 0)),
324           (INSERT_SUBREG (v16f32 (IMPLICIT_DEF)),
325           (INSERT_SUBREG (v8f32 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
326           sub_ymm)>;
327
328 def : Pat<(insert_subvector undef, (v4i64 VR256X:$src), (iPTR 0)),
329           (INSERT_SUBREG (v8i64 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
330 def : Pat<(insert_subvector undef, (v4f64 VR256X:$src), (iPTR 0)),
331           (INSERT_SUBREG (v8f64 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
332 def : Pat<(insert_subvector undef, (v8i32 VR256X:$src), (iPTR 0)),
333           (INSERT_SUBREG (v16i32 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
334 def : Pat<(insert_subvector undef, (v8f32 VR256X:$src), (iPTR 0)),
335           (INSERT_SUBREG (v16f32 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
336
337 // vextractps - extract 32 bits from XMM
338 def VEXTRACTPSzrr : AVX512AIi8<0x17, MRMDestReg, (outs GR32:$dst),
339       (ins VR128X:$src1, u32u8imm:$src2),
340       "vextractps{z}\t{$src2, $src1, $dst|$dst, $src1, $src2}",
341       [(set GR32:$dst, (extractelt (bc_v4i32 (v4f32 VR128X:$src1)), imm:$src2))]>,
342       EVEX;
343
344 def VEXTRACTPSzmr : AVX512AIi8<0x17, MRMDestMem, (outs),
345       (ins f32mem:$dst, VR128X:$src1, u32u8imm:$src2),
346       "vextractps{z}\t{$src2, $src1, $dst|$dst, $src1, $src2}",
347       [(store (extractelt (bc_v4i32 (v4f32 VR128X:$src1)), imm:$src2),
348                           addr:$dst)]>, EVEX;
349
350 // Mask register copy, including
351 // - copy between mask registers
352 // - load/store mask registers
353 // - copy from GPR to mask register and vice versa
354 //
355 multiclass avx512_mask_mov<bits<8> opc_kk, bits<8> opc_km, bits<8> opc_mk,
356                          string OpcodeStr, RegisterClass KRC,
357                          ValueType vt, X86MemOperand x86memop> {
358   let neverHasSideEffects = 1 in {
359     def kk : I<opc_kk, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src),
360                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
361     let mayLoad = 1 in
362     def km : I<opc_km, MRMSrcMem, (outs KRC:$dst), (ins x86memop:$src),
363                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
364                [(set KRC:$dst, (vt (load addr:$src)))]>;
365     let mayStore = 1 in
366     def mk : I<opc_mk, MRMDestMem, (outs), (ins x86memop:$dst, KRC:$src),
367                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
368   }
369 }
370
371 multiclass avx512_mask_mov_gpr<bits<8> opc_kr, bits<8> opc_rk,
372                              string OpcodeStr,
373                              RegisterClass KRC, RegisterClass GRC> {
374   let neverHasSideEffects = 1 in {
375     def kr : I<opc_kr, MRMSrcReg, (outs KRC:$dst), (ins GRC:$src),
376                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
377     def rk : I<opc_rk, MRMSrcReg, (outs GRC:$dst), (ins KRC:$src),
378                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
379   }
380 }
381
382 let Predicates = [HasAVX512] in {
383   defm KMOVW : avx512_mask_mov<0x90, 0x90, 0x91, "kmovw", VK16, v16i1, i16mem>,
384                VEX, TB;
385   defm KMOVW : avx512_mask_mov_gpr<0x92, 0x93, "kmovw", VK16, GR32>,
386                VEX, TB;
387 }
388
389 let Predicates = [HasAVX512] in {
390   // GR16 from/to 16-bit mask
391   def : Pat<(v16i1 (bitconvert (i16 GR16:$src))),
392             (KMOVWkr (SUBREG_TO_REG (i32 0), GR16:$src, sub_16bit))>;
393   def : Pat<(i16 (bitconvert (v16i1 VK16:$src))),
394             (EXTRACT_SUBREG (KMOVWrk VK16:$src), sub_16bit)>;
395
396   // Store kreg in memory
397   def : Pat<(store (v16i1 VK16:$src), addr:$dst),
398             (KMOVWmk addr:$dst, VK16:$src)>;
399
400   def : Pat<(store (v8i1 VK8:$src), addr:$dst),
401             (KMOVWmk addr:$dst, (v16i1 (COPY_TO_REGCLASS VK8:$src, VK16)))>;
402 }
403 // With AVX-512 only, 8-bit mask is promoted to 16-bit mask.
404 let Predicates = [HasAVX512] in {
405   // GR from/to 8-bit mask without native support
406   def : Pat<(v8i1 (bitconvert (i8 GR8:$src))),
407             (COPY_TO_REGCLASS
408               (KMOVWkr (SUBREG_TO_REG (i32 0), GR8:$src, sub_8bit)),
409               VK8)>;
410   def : Pat<(i8 (bitconvert (v8i1 VK8:$src))),
411             (EXTRACT_SUBREG
412               (KMOVWrk (COPY_TO_REGCLASS VK8:$src, VK16)),
413               sub_8bit)>;
414 }
415
416 // Mask unary operation
417 // - KNOT
418 multiclass avx512_mask_unop<bits<8> opc, string OpcodeStr,
419                          RegisterClass KRC, SDPatternOperator OpNode> {
420   let Predicates = [HasAVX512] in
421     def rr : I<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src),
422                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
423                [(set KRC:$dst, (OpNode KRC:$src))]>;
424 }
425
426 multiclass avx512_mask_unop_w<bits<8> opc, string OpcodeStr,
427                                SDPatternOperator OpNode> {
428   defm W : avx512_mask_unop<opc, !strconcat(OpcodeStr, "w"), VK16, OpNode>,
429                           VEX, TB;
430 }
431
432 defm KNOT : avx512_mask_unop_w<0x44, "knot", not>;
433
434 def : Pat<(xor VK16:$src1, (v16i1 immAllOnesV)), (KNOTWrr VK16:$src1)>;
435 def : Pat<(xor VK8:$src1,  (v8i1 immAllOnesV)),
436           (COPY_TO_REGCLASS (KNOTWrr (COPY_TO_REGCLASS VK8:$src1, VK16)), VK8)>;
437
438 // With AVX-512, 8-bit mask is promoted to 16-bit mask.
439 def : Pat<(not VK8:$src),
440           (COPY_TO_REGCLASS
441             (KNOTWrr (COPY_TO_REGCLASS VK8:$src, VK16)), VK8)>;
442
443 // Mask binary operation
444 // - KADD, KAND, KANDN, KOR, KXNOR, KXOR
445 multiclass avx512_mask_binop<bits<8> opc, string OpcodeStr,
446                            RegisterClass KRC, SDPatternOperator OpNode> {
447   let Predicates = [HasAVX512] in
448     def rr : I<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src1, KRC:$src2),
449                !strconcat(OpcodeStr,
450                           "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
451                [(set KRC:$dst, (OpNode KRC:$src1, KRC:$src2))]>;
452 }
453
454 multiclass avx512_mask_binop_w<bits<8> opc, string OpcodeStr,
455                              SDPatternOperator OpNode> {
456   defm W : avx512_mask_binop<opc, !strconcat(OpcodeStr, "w"), VK16, OpNode>,
457                            VEX_4V, VEX_L, TB;
458 }
459
460 def andn : PatFrag<(ops node:$i0, node:$i1), (and (not node:$i0), node:$i1)>;
461 def xnor : PatFrag<(ops node:$i0, node:$i1), (not (xor node:$i0, node:$i1))>;
462
463 let isCommutable = 1 in {
464   defm KADD  : avx512_mask_binop_w<0x4a, "kadd",  add>;
465   defm KAND  : avx512_mask_binop_w<0x41, "kand",  and>;
466   let isCommutable = 0 in
467   defm KANDN : avx512_mask_binop_w<0x42, "kandn", andn>;
468   defm KOR   : avx512_mask_binop_w<0x45, "kor",   or>;
469   defm KXNOR : avx512_mask_binop_w<0x46, "kxnor", xnor>;
470   defm KXOR  : avx512_mask_binop_w<0x47, "kxor",  xor>;
471 }
472
473 multiclass avx512_mask_binop_int<string IntName, string InstName> {
474   let Predicates = [HasAVX512] in
475     def : Pat<(!cast<Intrinsic>("int_x86_"##IntName##"_v16i1")
476                 VK16:$src1, VK16:$src2),
477               (!cast<Instruction>(InstName##"Wrr") VK16:$src1, VK16:$src2)>;
478 }
479
480 defm : avx512_mask_binop_int<"kadd",  "KADD">;
481 defm : avx512_mask_binop_int<"kand",  "KAND">;
482 defm : avx512_mask_binop_int<"kandn", "KANDN">;
483 defm : avx512_mask_binop_int<"kor",   "KOR">;
484 defm : avx512_mask_binop_int<"kxnor", "KXNOR">;
485 defm : avx512_mask_binop_int<"kxor",  "KXOR">;
486 // With AVX-512, 8-bit mask is promoted to 16-bit mask.
487 multiclass avx512_binop_pat<SDPatternOperator OpNode, Instruction Inst> {
488   let Predicates = [HasAVX512] in
489     def : Pat<(OpNode VK8:$src1, VK8:$src2),
490               (COPY_TO_REGCLASS
491                 (Inst (COPY_TO_REGCLASS VK8:$src1, VK16),
492                       (COPY_TO_REGCLASS VK8:$src2, VK16)), VK8)>;
493 }
494
495 defm : avx512_binop_pat<and,  KANDWrr>;
496 defm : avx512_binop_pat<andn, KANDNWrr>;
497 defm : avx512_binop_pat<or,   KORWrr>;
498 defm : avx512_binop_pat<xnor, KXNORWrr>;
499 defm : avx512_binop_pat<xor,  KXORWrr>;
500
501 // Mask unpacking
502 multiclass avx512_mask_unpck<bits<8> opc, string OpcodeStr,
503                            RegisterClass KRC1, RegisterClass KRC2> {
504   let Predicates = [HasAVX512] in
505     def rr : I<opc, MRMSrcReg, (outs KRC1:$dst), (ins KRC2:$src1, KRC2:$src2),
506                !strconcat(OpcodeStr,
507                           "\t{$src2, $src1, $dst|$dst, $src1, $src2}"), []>;
508 }
509
510 multiclass avx512_mask_unpck_bw<bits<8> opc, string OpcodeStr> {
511   defm BW : avx512_mask_unpck<opc, !strconcat(OpcodeStr, "bw"), VK16, VK8>,
512                             VEX_4V, VEX_L, OpSize, TB;
513 }
514
515 defm KUNPCK : avx512_mask_unpck_bw<0x4b, "kunpck">;
516
517 multiclass avx512_mask_unpck_int<string IntName, string InstName> {
518   let Predicates = [HasAVX512] in
519     def : Pat<(!cast<Intrinsic>("int_x86_"##IntName##"_v16i1")
520                 VK8:$src1, VK8:$src2),
521               (!cast<Instruction>(InstName##"BWrr") VK8:$src1, VK8:$src2)>;
522 }
523
524 defm : avx512_mask_unpck_int<"kunpck", "KUNPCK">;
525 // Mask bit testing
526 multiclass avx512_mask_testop<bits<8> opc, string OpcodeStr, RegisterClass KRC,
527                             SDNode OpNode> {
528   let Predicates = [HasAVX512], Defs = [EFLAGS] in
529     def rr : I<opc, MRMSrcReg, (outs), (ins KRC:$src1, KRC:$src2),
530                !strconcat(OpcodeStr, "\t{$src2, $src1|$src1, $src2}"),
531                [(set EFLAGS, (OpNode KRC:$src1, KRC:$src2))]>;
532 }
533
534 multiclass avx512_mask_testop_w<bits<8> opc, string OpcodeStr, SDNode OpNode> {
535   defm W : avx512_mask_testop<opc, !strconcat(OpcodeStr, "w"), VK16, OpNode>,
536                             VEX, TB;
537 }
538
539 defm KORTEST : avx512_mask_testop_w<0x98, "kortest", X86kortest>;
540 defm KTEST   : avx512_mask_testop_w<0x99, "ktest", X86ktest>;
541
542 // Mask shift
543 multiclass avx512_mask_shiftop<bits<8> opc, string OpcodeStr, RegisterClass KRC,
544                              SDNode OpNode> {
545   let Predicates = [HasAVX512] in
546     def ri : Ii8<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src, i8imm:$imm),
547                  !strconcat(OpcodeStr,
548                             "\t{$imm, $src, $dst|$dst, $src, $imm}"),
549                             [(set KRC:$dst, (OpNode KRC:$src, (i8 imm:$imm)))]>;
550 }
551
552 multiclass avx512_mask_shiftop_w<bits<8> opc1, bits<8> opc2, string OpcodeStr,
553                                SDNode OpNode> {
554   defm W : avx512_mask_shiftop<opc1, !strconcat(OpcodeStr, "w"), VK16, OpNode>,
555                              VEX, OpSize, TA, VEX_W;
556 }
557
558 defm KSHIFTL : avx512_mask_shiftop_w<0x32, 0x33, "kshiftl", shl>;
559 defm KSHIFTR : avx512_mask_shiftop_w<0x30, 0x31, "kshiftr", srl>;
560
561 // Mask setting all 0s or 1s
562 multiclass avx512_mask_setop<RegisterClass KRC, ValueType VT, PatFrag Val> {
563   let Predicates = [HasAVX512] in
564     let isReMaterializable = 1, isAsCheapAsAMove = 1, isPseudo = 1 in
565       def #NAME# : I<0, Pseudo, (outs KRC:$dst), (ins), "",
566                      [(set KRC:$dst, (VT Val))]>;
567 }
568
569 multiclass avx512_mask_setop_w<PatFrag Val> {
570   defm B : avx512_mask_setop<VK8,  v8i1, Val>;
571   defm W : avx512_mask_setop<VK16, v16i1, Val>;
572 }
573
574 defm KSET0 : avx512_mask_setop_w<immAllZerosV>;
575 defm KSET1 : avx512_mask_setop_w<immAllOnesV>;
576
577 // With AVX-512 only, 8-bit mask is promoted to 16-bit mask.
578 let Predicates = [HasAVX512] in {
579   def : Pat<(v8i1 immAllZerosV), (COPY_TO_REGCLASS (KSET0W), VK8)>;
580   def : Pat<(v8i1 immAllOnesV),  (COPY_TO_REGCLASS (KSET1W), VK8)>;
581 }
582 def : Pat<(v8i1 (extract_subvector (v16i1 VK16:$src), (iPTR 0))),
583           (v8i1 (COPY_TO_REGCLASS VK16:$src, VK8))>;
584
585 def : Pat<(v16i1 (insert_subvector undef, (v8i1 VK8:$src), (iPTR 0))),
586           (v16i1 (COPY_TO_REGCLASS VK8:$src, VK16))>;
587
588 def : Pat<(v8i1 (extract_subvector (v16i1 VK16:$src), (iPTR 8))),
589           (v8i1 (COPY_TO_REGCLASS (KSHIFTRWri VK16:$src, (i8 8)), VK8))>;