AVX-512: Fixed a bug in extracting subvector from v64i1
[oota-llvm.git] / lib / Target / X86 / X86InstrAVX512.td
1 //===-- X86InstrAVX512.td - AVX512 Instruction Set ---------*- tablegen -*-===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file describes the X86 AVX512 instruction set, defining the
11 // instructions, and properties of the instructions which are needed for code
12 // generation, machine code emission, and analysis.
13 //
14 //===----------------------------------------------------------------------===//
15
16 // Group template arguments that can be derived from the vector type (EltNum x
17 // EltVT).  These are things like the register class for the writemask, etc.
18 // The idea is to pass one of these as the template argument rather than the
19 // individual arguments.
20 // The template is also used for scalar types, in this case numelts is 1.
21 class X86VectorVTInfo<int numelts, ValueType eltvt, RegisterClass rc,
22                       string suffix = ""> {
23   RegisterClass RC = rc;
24   ValueType EltVT = eltvt;
25   int NumElts = numelts;
26
27   // Corresponding mask register class.
28   RegisterClass KRC = !cast<RegisterClass>("VK" # NumElts);
29
30   // Corresponding write-mask register class.
31   RegisterClass KRCWM = !cast<RegisterClass>("VK" # NumElts # "WM");
32
33   // The GPR register class that can hold the write mask.  Use GR8 for fewer
34   // than 8 elements.  Use shift-right and equal to work around the lack of
35   // !lt in tablegen.
36   RegisterClass MRC =
37     !cast<RegisterClass>("GR" #
38                          !if (!eq (!srl(NumElts, 3), 0), 8, NumElts));
39
40   // Suffix used in the instruction mnemonic.
41   string Suffix = suffix;
42
43   // VTName is a string name for vector VT. For vector types it will be
44   // v # NumElts # EltVT, so for vector of 8 elements of i32 it will be v8i32
45   // It is a little bit complex for scalar types, where NumElts = 1.
46   // In this case we build v4f32 or v2f64
47   string VTName = "v" # !if (!eq (NumElts, 1),
48                         !if (!eq (EltVT.Size, 32), 4,
49                         !if (!eq (EltVT.Size, 64), 2, NumElts)), NumElts) # EltVT;
50
51   // The vector VT.
52   ValueType VT = !cast<ValueType>(VTName);
53
54   string EltTypeName = !cast<string>(EltVT);
55   // Size of the element type in bits, e.g. 32 for v16i32.
56   string EltSizeName = !subst("i", "", !subst("f", "", EltTypeName));
57   int EltSize = EltVT.Size;
58
59   // "i" for integer types and "f" for floating-point types
60   string TypeVariantName = !subst(EltSizeName, "", EltTypeName);
61
62   // Size of RC in bits, e.g. 512 for VR512.
63   int Size = VT.Size;
64
65   // The corresponding memory operand, e.g. i512mem for VR512.
66   X86MemOperand MemOp = !cast<X86MemOperand>(TypeVariantName # Size # "mem");
67   X86MemOperand ScalarMemOp = !cast<X86MemOperand>(EltVT # "mem");
68
69   // Load patterns
70   // Note: For 128/256-bit integer VT we choose loadv2i64/loadv4i64
71   //       due to load promotion during legalization
72   PatFrag LdFrag = !cast<PatFrag>("load" #
73                                   !if (!eq (TypeVariantName, "i"),
74                                        !if (!eq (Size, 128), "v2i64",
75                                        !if (!eq (Size, 256), "v4i64",
76                                             VTName)), VTName));
77
78   PatFrag AlignedLdFrag = !cast<PatFrag>("alignedload" #
79                           !if (!eq (TypeVariantName, "i"),
80                                 !if (!eq (Size, 128), "v2i64",
81                                 !if (!eq (Size, 256), "v4i64",
82                                 !if (!eq (Size, 512), 
83                                     !if (!eq (EltSize, 64), "v8i64", "v16i32"),
84                                     VTName))), VTName));
85
86   PatFrag ScalarLdFrag = !cast<PatFrag>("load" # EltVT);
87
88   // The corresponding float type, e.g. v16f32 for v16i32
89   // Note: For EltSize < 32, FloatVT is illegal and TableGen
90   //       fails to compile, so we choose FloatVT = VT
91   ValueType FloatVT = !cast<ValueType>(
92                         !if (!eq (!srl(EltSize,5),0),
93                              VTName,
94                              !if (!eq(TypeVariantName, "i"),
95                                   "v" # NumElts # "f" # EltSize,
96                                   VTName)));
97
98   // The string to specify embedded broadcast in assembly.
99   string BroadcastStr = "{1to" # NumElts # "}";
100
101   // 8-bit compressed displacement tuple/subvector format.  This is only
102   // defined for NumElts <= 8.
103   CD8VForm CD8TupleForm = !if (!eq (!srl(NumElts, 4), 0),
104                                !cast<CD8VForm>("CD8VT" # NumElts), ?);
105
106   SubRegIndex SubRegIdx = !if (!eq (Size, 128), sub_xmm,
107                           !if (!eq (Size, 256), sub_ymm, ?));
108
109   Domain ExeDomain = !if (!eq (EltTypeName, "f32"), SSEPackedSingle,
110                      !if (!eq (EltTypeName, "f64"), SSEPackedDouble,
111                      SSEPackedInt));
112
113   RegisterClass FRC = !if (!eq (EltTypeName, "f32"), FR32X, FR64X);
114
115   // A vector type of the same width with element type i32.  This is used to
116   // create the canonical constant zero node ImmAllZerosV.
117   ValueType i32VT = !cast<ValueType>("v" # !srl(Size, 5) # "i32");
118   dag ImmAllZerosV = (VT (bitconvert (i32VT immAllZerosV)));
119
120   string ZSuffix = !if (!eq (Size, 128), "Z128",
121                    !if (!eq (Size, 256), "Z256", "Z"));
122 }
123
124 def v64i8_info  : X86VectorVTInfo<64,  i8, VR512, "b">;
125 def v32i16_info : X86VectorVTInfo<32, i16, VR512, "w">;
126 def v16i32_info : X86VectorVTInfo<16, i32, VR512, "d">;
127 def v8i64_info  : X86VectorVTInfo<8,  i64, VR512, "q">;
128 def v16f32_info : X86VectorVTInfo<16, f32, VR512, "ps">;
129 def v8f64_info  : X86VectorVTInfo<8,  f64, VR512, "pd">;
130
131 // "x" in v32i8x_info means RC = VR256X
132 def v32i8x_info  : X86VectorVTInfo<32,  i8, VR256X, "b">;
133 def v16i16x_info : X86VectorVTInfo<16, i16, VR256X, "w">;
134 def v8i32x_info  : X86VectorVTInfo<8,  i32, VR256X, "d">;
135 def v4i64x_info  : X86VectorVTInfo<4,  i64, VR256X, "q">;
136 def v8f32x_info  : X86VectorVTInfo<8,  f32, VR256X, "ps">;
137 def v4f64x_info  : X86VectorVTInfo<4,  f64, VR256X, "pd">;
138
139 def v16i8x_info  : X86VectorVTInfo<16,  i8, VR128X, "b">;
140 def v8i16x_info  : X86VectorVTInfo<8,  i16, VR128X, "w">;
141 def v4i32x_info  : X86VectorVTInfo<4,  i32, VR128X, "d">;
142 def v2i64x_info  : X86VectorVTInfo<2,  i64, VR128X, "q">;
143 def v4f32x_info  : X86VectorVTInfo<4,  f32, VR128X, "ps">;
144 def v2f64x_info  : X86VectorVTInfo<2,  f64, VR128X, "pd">;
145
146 // We map scalar types to the smallest (128-bit) vector type
147 // with the appropriate element type. This allows to use the same masking logic.
148 def f32x_info    : X86VectorVTInfo<1,  f32, VR128X, "ss">;
149 def f64x_info    : X86VectorVTInfo<1,  f64, VR128X, "sd">;
150
151 class AVX512VLVectorVTInfo<X86VectorVTInfo i512, X86VectorVTInfo i256,
152                            X86VectorVTInfo i128> {
153   X86VectorVTInfo info512 = i512;
154   X86VectorVTInfo info256 = i256;
155   X86VectorVTInfo info128 = i128;
156 }
157
158 def avx512vl_i8_info  : AVX512VLVectorVTInfo<v64i8_info, v32i8x_info,
159                                              v16i8x_info>;
160 def avx512vl_i16_info : AVX512VLVectorVTInfo<v32i16_info, v16i16x_info,
161                                              v8i16x_info>;
162 def avx512vl_i32_info : AVX512VLVectorVTInfo<v16i32_info, v8i32x_info,
163                                              v4i32x_info>;
164 def avx512vl_i64_info : AVX512VLVectorVTInfo<v8i64_info, v4i64x_info,
165                                              v2i64x_info>;
166 def avx512vl_f32_info : AVX512VLVectorVTInfo<v16f32_info, v8f32x_info,
167                                              v4f32x_info>;
168 def avx512vl_f64_info : AVX512VLVectorVTInfo<v8f64_info, v4f64x_info,
169                                              v2f64x_info>;
170
171 // This multiclass generates the masking variants from the non-masking
172 // variant.  It only provides the assembly pieces for the masking variants.
173 // It assumes custom ISel patterns for masking which can be provided as
174 // template arguments.
175 multiclass AVX512_maskable_custom<bits<8> O, Format F,
176                                   dag Outs,
177                                   dag Ins, dag MaskingIns, dag ZeroMaskingIns,
178                                   string OpcodeStr,
179                                   string AttSrcAsm, string IntelSrcAsm,
180                                   list<dag> Pattern,
181                                   list<dag> MaskingPattern,
182                                   list<dag> ZeroMaskingPattern,
183                                   string MaskingConstraint = "",
184                                   InstrItinClass itin = NoItinerary,
185                                   bit IsCommutable = 0> {
186   let isCommutable = IsCommutable in
187     def NAME: AVX512<O, F, Outs, Ins,
188                        OpcodeStr#"\t{"#AttSrcAsm#", $dst|"#
189                                      "$dst , "#IntelSrcAsm#"}",
190                        Pattern, itin>;
191
192   // Prefer over VMOV*rrk Pat<>
193   let AddedComplexity = 20 in
194     def NAME#k: AVX512<O, F, Outs, MaskingIns,
195                        OpcodeStr#"\t{"#AttSrcAsm#", $dst {${mask}}|"#
196                                      "$dst {${mask}}, "#IntelSrcAsm#"}",
197                        MaskingPattern, itin>,
198               EVEX_K {
199       // In case of the 3src subclass this is overridden with a let.
200       string Constraints = MaskingConstraint;
201   }
202   let AddedComplexity = 30 in // Prefer over VMOV*rrkz Pat<>
203     def NAME#kz: AVX512<O, F, Outs, ZeroMaskingIns,
204                        OpcodeStr#"\t{"#AttSrcAsm#", $dst {${mask}} {z}|"#
205                                      "$dst {${mask}} {z}, "#IntelSrcAsm#"}",
206                        ZeroMaskingPattern,
207                        itin>,
208               EVEX_KZ;
209 }
210
211
212 // Common base class of AVX512_maskable and AVX512_maskable_3src.
213 multiclass AVX512_maskable_common<bits<8> O, Format F, X86VectorVTInfo _,
214                                   dag Outs,
215                                   dag Ins, dag MaskingIns, dag ZeroMaskingIns,
216                                   string OpcodeStr,
217                                   string AttSrcAsm, string IntelSrcAsm,
218                                   dag RHS, dag MaskingRHS,
219                                   SDNode Select = vselect,
220                                   string MaskingConstraint = "",
221                                   InstrItinClass itin = NoItinerary,
222                                   bit IsCommutable = 0> :
223   AVX512_maskable_custom<O, F, Outs, Ins, MaskingIns, ZeroMaskingIns, OpcodeStr,
224                          AttSrcAsm, IntelSrcAsm,
225                          [(set _.RC:$dst, RHS)],
226                          [(set _.RC:$dst, MaskingRHS)],
227                          [(set _.RC:$dst,
228                                (Select _.KRCWM:$mask, RHS, _.ImmAllZerosV))],
229                          MaskingConstraint, NoItinerary, IsCommutable>;
230
231 // This multiclass generates the unconditional/non-masking, the masking and
232 // the zero-masking variant of the vector instruction.  In the masking case, the
233 // perserved vector elements come from a new dummy input operand tied to $dst.
234 multiclass AVX512_maskable<bits<8> O, Format F, X86VectorVTInfo _,
235                            dag Outs, dag Ins, string OpcodeStr,
236                            string AttSrcAsm, string IntelSrcAsm,
237                            dag RHS,
238                            InstrItinClass itin = NoItinerary,
239                            bit IsCommutable = 0> :
240    AVX512_maskable_common<O, F, _, Outs, Ins,
241                           !con((ins _.RC:$src0, _.KRCWM:$mask), Ins),
242                           !con((ins _.KRCWM:$mask), Ins),
243                           OpcodeStr, AttSrcAsm, IntelSrcAsm, RHS,
244                           (vselect _.KRCWM:$mask, RHS, _.RC:$src0), vselect,
245                           "$src0 = $dst", itin, IsCommutable>;
246
247 // This multiclass generates the unconditional/non-masking, the masking and
248 // the zero-masking variant of the scalar instruction.
249 multiclass AVX512_maskable_scalar<bits<8> O, Format F, X86VectorVTInfo _,
250                            dag Outs, dag Ins, string OpcodeStr,
251                            string AttSrcAsm, string IntelSrcAsm,
252                            dag RHS,
253                            InstrItinClass itin = NoItinerary,
254                            bit IsCommutable = 0> :
255    AVX512_maskable_common<O, F, _, Outs, Ins,
256                           !con((ins _.RC:$src0, _.KRCWM:$mask), Ins),
257                           !con((ins _.KRCWM:$mask), Ins),
258                           OpcodeStr, AttSrcAsm, IntelSrcAsm, RHS,
259                           (X86select _.KRCWM:$mask, RHS, _.RC:$src0), X86select,
260                           "$src0 = $dst", itin, IsCommutable>;
261
262 // Similar to AVX512_maskable but in this case one of the source operands
263 // ($src1) is already tied to $dst so we just use that for the preserved
264 // vector elements.  NOTE that the NonTiedIns (the ins dag) should exclude
265 // $src1.
266 multiclass AVX512_maskable_3src<bits<8> O, Format F, X86VectorVTInfo _,
267                                 dag Outs, dag NonTiedIns, string OpcodeStr,
268                                 string AttSrcAsm, string IntelSrcAsm,
269                                 dag RHS> :
270    AVX512_maskable_common<O, F, _, Outs,
271                           !con((ins _.RC:$src1), NonTiedIns),
272                           !con((ins _.RC:$src1, _.KRCWM:$mask), NonTiedIns),
273                           !con((ins _.RC:$src1, _.KRCWM:$mask), NonTiedIns),
274                           OpcodeStr, AttSrcAsm, IntelSrcAsm, RHS,
275                           (vselect _.KRCWM:$mask, RHS, _.RC:$src1)>;
276
277
278 multiclass AVX512_maskable_in_asm<bits<8> O, Format F, X86VectorVTInfo _,
279                                   dag Outs, dag Ins,
280                                   string OpcodeStr,
281                                   string AttSrcAsm, string IntelSrcAsm,
282                                   list<dag> Pattern> :
283    AVX512_maskable_custom<O, F, Outs, Ins,
284                           !con((ins _.RC:$src0, _.KRCWM:$mask), Ins),
285                           !con((ins _.KRCWM:$mask), Ins),
286                           OpcodeStr, AttSrcAsm, IntelSrcAsm, Pattern, [], [],
287                           "$src0 = $dst">;
288
289
290 // Instruction with mask that puts result in mask register,
291 // like "compare" and "vptest"
292 multiclass AVX512_maskable_custom_cmp<bits<8> O, Format F,
293                                   dag Outs,
294                                   dag Ins, dag MaskingIns,
295                                   string OpcodeStr,
296                                   string AttSrcAsm, string IntelSrcAsm,
297                                   list<dag> Pattern,
298                                   list<dag> MaskingPattern,
299                                   string Round = "",
300                                   InstrItinClass itin = NoItinerary> {
301     def NAME: AVX512<O, F, Outs, Ins,
302                        OpcodeStr#"\t{"#AttSrcAsm#", $dst "#Round#"|"#
303                                      "$dst "#Round#", "#IntelSrcAsm#"}",
304                        Pattern, itin>;
305
306     def NAME#k: AVX512<O, F, Outs, MaskingIns,
307                        OpcodeStr#"\t{"#Round#AttSrcAsm#", $dst {${mask}}|"#
308                                      "$dst {${mask}}, "#IntelSrcAsm#Round#"}",
309                        MaskingPattern, itin>, EVEX_K;
310 }
311
312 multiclass AVX512_maskable_common_cmp<bits<8> O, Format F, X86VectorVTInfo _,
313                                   dag Outs,
314                                   dag Ins, dag MaskingIns,
315                                   string OpcodeStr,
316                                   string AttSrcAsm, string IntelSrcAsm,
317                                   dag RHS, dag MaskingRHS,
318                                   string Round = "",
319                                   InstrItinClass itin = NoItinerary> :
320   AVX512_maskable_custom_cmp<O, F, Outs, Ins, MaskingIns, OpcodeStr,
321                          AttSrcAsm, IntelSrcAsm,
322                          [(set _.KRC:$dst, RHS)],
323                          [(set _.KRC:$dst, MaskingRHS)],
324                          Round, NoItinerary>;
325
326 multiclass AVX512_maskable_cmp<bits<8> O, Format F, X86VectorVTInfo _,
327                            dag Outs, dag Ins, string OpcodeStr,
328                            string AttSrcAsm, string IntelSrcAsm,
329                            dag RHS, string Round = "",
330                            InstrItinClass itin = NoItinerary> :
331    AVX512_maskable_common_cmp<O, F, _, Outs, Ins,
332                           !con((ins _.KRCWM:$mask), Ins),
333                           OpcodeStr, AttSrcAsm, IntelSrcAsm, RHS,
334                           (and _.KRCWM:$mask, RHS),
335                           Round, itin>;
336
337 multiclass AVX512_maskable_cmp_alt<bits<8> O, Format F, X86VectorVTInfo _,
338                            dag Outs, dag Ins, string OpcodeStr,
339                            string AttSrcAsm, string IntelSrcAsm> :
340    AVX512_maskable_custom_cmp<O, F, Outs,
341                              Ins, !con((ins _.KRCWM:$mask),Ins), OpcodeStr,
342                              AttSrcAsm, IntelSrcAsm,
343                              [],[],"", NoItinerary>;
344
345 // Bitcasts between 512-bit vector types. Return the original type since
346 // no instruction is needed for the conversion
347 let Predicates = [HasAVX512] in {
348   def : Pat<(v8f64  (bitconvert (v8i64 VR512:$src))),  (v8f64 VR512:$src)>;
349   def : Pat<(v8f64  (bitconvert (v16i32 VR512:$src))), (v8f64 VR512:$src)>;
350   def : Pat<(v8f64  (bitconvert (v32i16 VR512:$src))),  (v8f64 VR512:$src)>;
351   def : Pat<(v8f64  (bitconvert (v64i8 VR512:$src))), (v8f64 VR512:$src)>;
352   def : Pat<(v8f64  (bitconvert (v16f32 VR512:$src))), (v8f64 VR512:$src)>;
353   def : Pat<(v16f32 (bitconvert (v8i64 VR512:$src))),  (v16f32 VR512:$src)>;
354   def : Pat<(v16f32 (bitconvert (v16i32 VR512:$src))), (v16f32 VR512:$src)>;
355   def : Pat<(v16f32 (bitconvert (v32i16 VR512:$src))), (v16f32 VR512:$src)>;
356   def : Pat<(v16f32 (bitconvert (v64i8 VR512:$src))), (v16f32 VR512:$src)>;
357   def : Pat<(v16f32 (bitconvert (v8f64 VR512:$src))),  (v16f32 VR512:$src)>;
358   def : Pat<(v8i64  (bitconvert (v16i32 VR512:$src))), (v8i64 VR512:$src)>;
359   def : Pat<(v8i64  (bitconvert (v32i16 VR512:$src))), (v8i64 VR512:$src)>;
360   def : Pat<(v8i64  (bitconvert (v64i8 VR512:$src))), (v8i64 VR512:$src)>;
361   def : Pat<(v8i64  (bitconvert (v8f64 VR512:$src))),  (v8i64 VR512:$src)>;
362   def : Pat<(v8i64  (bitconvert (v16f32 VR512:$src))), (v8i64 VR512:$src)>;
363   def : Pat<(v16i32 (bitconvert (v8i64 VR512:$src))), (v16i32 VR512:$src)>;
364   def : Pat<(v16i32 (bitconvert (v16f32 VR512:$src))), (v16i32 VR512:$src)>;
365   def : Pat<(v16i32 (bitconvert (v32i16 VR512:$src))),  (v16i32 VR512:$src)>;
366   def : Pat<(v16i32 (bitconvert (v64i8 VR512:$src))),  (v16i32 VR512:$src)>;
367   def : Pat<(v16i32 (bitconvert (v8f64 VR512:$src))),  (v16i32 VR512:$src)>;
368   def : Pat<(v32i16 (bitconvert (v8i64 VR512:$src))), (v32i16 VR512:$src)>;
369   def : Pat<(v32i16 (bitconvert (v16i32 VR512:$src))),  (v32i16 VR512:$src)>;
370   def : Pat<(v32i16 (bitconvert (v64i8 VR512:$src))),  (v32i16 VR512:$src)>;
371   def : Pat<(v32i16 (bitconvert (v8f64 VR512:$src))),  (v32i16 VR512:$src)>;
372   def : Pat<(v32i16 (bitconvert (v16f32 VR512:$src))), (v32i16 VR512:$src)>;
373   def : Pat<(v32i16 (bitconvert (v16f32 VR512:$src))), (v32i16 VR512:$src)>;
374   def : Pat<(v64i8  (bitconvert (v8i64 VR512:$src))), (v64i8 VR512:$src)>;
375   def : Pat<(v64i8  (bitconvert (v16i32 VR512:$src))), (v64i8 VR512:$src)>;
376   def : Pat<(v64i8  (bitconvert (v32i16 VR512:$src))), (v64i8 VR512:$src)>;
377   def : Pat<(v64i8  (bitconvert (v8f64 VR512:$src))),  (v64i8 VR512:$src)>;
378   def : Pat<(v64i8  (bitconvert (v16f32 VR512:$src))), (v64i8 VR512:$src)>;
379
380   def : Pat<(v2i64 (bitconvert (v4i32 VR128X:$src))), (v2i64 VR128X:$src)>;
381   def : Pat<(v2i64 (bitconvert (v8i16 VR128X:$src))), (v2i64 VR128X:$src)>;
382   def : Pat<(v2i64 (bitconvert (v16i8 VR128X:$src))), (v2i64 VR128X:$src)>;
383   def : Pat<(v2i64 (bitconvert (v2f64 VR128X:$src))), (v2i64 VR128X:$src)>;
384   def : Pat<(v2i64 (bitconvert (v4f32 VR128X:$src))), (v2i64 VR128X:$src)>;
385   def : Pat<(v4i32 (bitconvert (v2i64 VR128X:$src))), (v4i32 VR128X:$src)>;
386   def : Pat<(v4i32 (bitconvert (v8i16 VR128X:$src))), (v4i32 VR128X:$src)>;
387   def : Pat<(v4i32 (bitconvert (v16i8 VR128X:$src))), (v4i32 VR128X:$src)>;
388   def : Pat<(v4i32 (bitconvert (v2f64 VR128X:$src))), (v4i32 VR128X:$src)>;
389   def : Pat<(v4i32 (bitconvert (v4f32 VR128X:$src))), (v4i32 VR128X:$src)>;
390   def : Pat<(v8i16 (bitconvert (v2i64 VR128X:$src))), (v8i16 VR128X:$src)>;
391   def : Pat<(v8i16 (bitconvert (v4i32 VR128X:$src))), (v8i16 VR128X:$src)>;
392   def : Pat<(v8i16 (bitconvert (v16i8 VR128X:$src))), (v8i16 VR128X:$src)>;
393   def : Pat<(v8i16 (bitconvert (v2f64 VR128X:$src))), (v8i16 VR128X:$src)>;
394   def : Pat<(v8i16 (bitconvert (v4f32 VR128X:$src))), (v8i16 VR128X:$src)>;
395   def : Pat<(v16i8 (bitconvert (v2i64 VR128X:$src))), (v16i8 VR128X:$src)>;
396   def : Pat<(v16i8 (bitconvert (v4i32 VR128X:$src))), (v16i8 VR128X:$src)>;
397   def : Pat<(v16i8 (bitconvert (v8i16 VR128X:$src))), (v16i8 VR128X:$src)>;
398   def : Pat<(v16i8 (bitconvert (v2f64 VR128X:$src))), (v16i8 VR128X:$src)>;
399   def : Pat<(v16i8 (bitconvert (v4f32 VR128X:$src))), (v16i8 VR128X:$src)>;
400   def : Pat<(v4f32 (bitconvert (v2i64 VR128X:$src))), (v4f32 VR128X:$src)>;
401   def : Pat<(v4f32 (bitconvert (v4i32 VR128X:$src))), (v4f32 VR128X:$src)>;
402   def : Pat<(v4f32 (bitconvert (v8i16 VR128X:$src))), (v4f32 VR128X:$src)>;
403   def : Pat<(v4f32 (bitconvert (v16i8 VR128X:$src))), (v4f32 VR128X:$src)>;
404   def : Pat<(v4f32 (bitconvert (v2f64 VR128X:$src))), (v4f32 VR128X:$src)>;
405   def : Pat<(v2f64 (bitconvert (v2i64 VR128X:$src))), (v2f64 VR128X:$src)>;
406   def : Pat<(v2f64 (bitconvert (v4i32 VR128X:$src))), (v2f64 VR128X:$src)>;
407   def : Pat<(v2f64 (bitconvert (v8i16 VR128X:$src))), (v2f64 VR128X:$src)>;
408   def : Pat<(v2f64 (bitconvert (v16i8 VR128X:$src))), (v2f64 VR128X:$src)>;
409   def : Pat<(v2f64 (bitconvert (v4f32 VR128X:$src))), (v2f64 VR128X:$src)>;
410
411 // Bitcasts between 256-bit vector types. Return the original type since
412 // no instruction is needed for the conversion
413   def : Pat<(v4f64  (bitconvert (v8f32 VR256X:$src))),  (v4f64 VR256X:$src)>;
414   def : Pat<(v4f64  (bitconvert (v8i32 VR256X:$src))),  (v4f64 VR256X:$src)>;
415   def : Pat<(v4f64  (bitconvert (v4i64 VR256X:$src))),  (v4f64 VR256X:$src)>;
416   def : Pat<(v4f64  (bitconvert (v16i16 VR256X:$src))), (v4f64 VR256X:$src)>;
417   def : Pat<(v4f64  (bitconvert (v32i8 VR256X:$src))),  (v4f64 VR256X:$src)>;
418   def : Pat<(v8f32  (bitconvert (v8i32 VR256X:$src))),  (v8f32 VR256X:$src)>;
419   def : Pat<(v8f32  (bitconvert (v4i64 VR256X:$src))),  (v8f32 VR256X:$src)>;
420   def : Pat<(v8f32  (bitconvert (v4f64 VR256X:$src))),  (v8f32 VR256X:$src)>;
421   def : Pat<(v8f32  (bitconvert (v32i8 VR256X:$src))),  (v8f32 VR256X:$src)>;
422   def : Pat<(v8f32  (bitconvert (v16i16 VR256X:$src))), (v8f32 VR256X:$src)>;
423   def : Pat<(v4i64  (bitconvert (v8f32 VR256X:$src))),  (v4i64 VR256X:$src)>;
424   def : Pat<(v4i64  (bitconvert (v8i32 VR256X:$src))),  (v4i64 VR256X:$src)>;
425   def : Pat<(v4i64  (bitconvert (v4f64 VR256X:$src))),  (v4i64 VR256X:$src)>;
426   def : Pat<(v4i64  (bitconvert (v32i8 VR256X:$src))),  (v4i64 VR256X:$src)>;
427   def : Pat<(v4i64  (bitconvert (v16i16 VR256X:$src))), (v4i64 VR256X:$src)>;
428   def : Pat<(v32i8  (bitconvert (v4f64 VR256X:$src))),  (v32i8 VR256X:$src)>;
429   def : Pat<(v32i8  (bitconvert (v4i64 VR256X:$src))),  (v32i8 VR256X:$src)>;
430   def : Pat<(v32i8  (bitconvert (v8f32 VR256X:$src))),  (v32i8 VR256X:$src)>;
431   def : Pat<(v32i8  (bitconvert (v8i32 VR256X:$src))),  (v32i8 VR256X:$src)>;
432   def : Pat<(v32i8  (bitconvert (v16i16 VR256X:$src))), (v32i8 VR256X:$src)>;
433   def : Pat<(v8i32  (bitconvert (v32i8 VR256X:$src))),  (v8i32 VR256X:$src)>;
434   def : Pat<(v8i32  (bitconvert (v16i16 VR256X:$src))), (v8i32 VR256X:$src)>;
435   def : Pat<(v8i32  (bitconvert (v8f32 VR256X:$src))),  (v8i32 VR256X:$src)>;
436   def : Pat<(v8i32  (bitconvert (v4i64 VR256X:$src))),  (v8i32 VR256X:$src)>;
437   def : Pat<(v8i32  (bitconvert (v4f64 VR256X:$src))),  (v8i32 VR256X:$src)>;
438   def : Pat<(v16i16 (bitconvert (v8f32 VR256X:$src))),  (v16i16 VR256X:$src)>;
439   def : Pat<(v16i16 (bitconvert (v8i32 VR256X:$src))),  (v16i16 VR256X:$src)>;
440   def : Pat<(v16i16 (bitconvert (v4i64 VR256X:$src))),  (v16i16 VR256X:$src)>;
441   def : Pat<(v16i16 (bitconvert (v4f64 VR256X:$src))),  (v16i16 VR256X:$src)>;
442   def : Pat<(v16i16 (bitconvert (v32i8 VR256X:$src))),  (v16i16 VR256X:$src)>;
443 }
444
445 //
446 // AVX-512: VPXOR instruction writes zero to its upper part, it's safe build zeros.
447 //
448
449 let isReMaterializable = 1, isAsCheapAsAMove = 1, canFoldAsLoad = 1,
450     isPseudo = 1, Predicates = [HasAVX512] in {
451 def AVX512_512_SET0 : I<0, Pseudo, (outs VR512:$dst), (ins), "",
452                [(set VR512:$dst, (v16f32 immAllZerosV))]>;
453 }
454
455 let Predicates = [HasAVX512] in {
456 def : Pat<(v8i64 immAllZerosV), (AVX512_512_SET0)>;
457 def : Pat<(v16i32 immAllZerosV), (AVX512_512_SET0)>;
458 def : Pat<(v8f64 immAllZerosV), (AVX512_512_SET0)>;
459 }
460
461 //===----------------------------------------------------------------------===//
462 // AVX-512 - VECTOR INSERT
463 //
464
465 multiclass vinsert_for_size_no_alt<int Opcode,
466                                    X86VectorVTInfo From, X86VectorVTInfo To,
467                                    PatFrag vinsert_insert,
468                                    SDNodeXForm INSERT_get_vinsert_imm> {
469   let hasSideEffects = 0, ExeDomain = To.ExeDomain in {
470     def rr : AVX512AIi8<Opcode, MRMSrcReg, (outs VR512:$dst),
471                (ins VR512:$src1, From.RC:$src2, u8imm:$src3),
472                "vinsert" # From.EltTypeName # "x" # From.NumElts #
473                                                 "\t{$src3, $src2, $src1, $dst|"
474                                                    "$dst, $src1, $src2, $src3}",
475                [(set To.RC:$dst, (vinsert_insert:$src3 (To.VT VR512:$src1),
476                                                        (From.VT From.RC:$src2),
477                                                        (iPTR imm)))]>,
478              EVEX_4V, EVEX_V512;
479
480     let mayLoad = 1 in
481     def rm : AVX512AIi8<Opcode, MRMSrcMem, (outs VR512:$dst),
482                (ins VR512:$src1, From.MemOp:$src2, u8imm:$src3),
483                "vinsert" # From.EltTypeName # "x" # From.NumElts #
484                                                 "\t{$src3, $src2, $src1, $dst|"
485                                                    "$dst, $src1, $src2, $src3}",
486                []>,
487              EVEX_4V, EVEX_V512, EVEX_CD8<From.EltSize, From.CD8TupleForm>;
488   }
489 }
490
491 multiclass vinsert_for_size<int Opcode,
492                             X86VectorVTInfo From, X86VectorVTInfo To,
493                             X86VectorVTInfo AltFrom, X86VectorVTInfo AltTo,
494                             PatFrag vinsert_insert,
495                             SDNodeXForm INSERT_get_vinsert_imm> :
496   vinsert_for_size_no_alt<Opcode, From, To,
497                           vinsert_insert, INSERT_get_vinsert_imm> {
498   // Codegen pattern with the alternative types, e.g. v2i64 -> v8i64 for
499   // vinserti32x4.  Only add this if 64x2 and friends are not supported
500   // natively via AVX512DQ.
501   let Predicates = [NoDQI] in
502     def : Pat<(vinsert_insert:$ins
503                  (AltTo.VT VR512:$src1), (AltFrom.VT From.RC:$src2), (iPTR imm)),
504               (AltTo.VT (!cast<Instruction>(NAME # From.EltSize # "x4rr")
505                             VR512:$src1, From.RC:$src2,
506                             (INSERT_get_vinsert_imm VR512:$ins)))>;
507 }
508
509 multiclass vinsert_for_type<ValueType EltVT32, int Opcode128,
510                             ValueType EltVT64, int Opcode256> {
511   defm NAME # "32x4" : vinsert_for_size<Opcode128,
512                                  X86VectorVTInfo< 4, EltVT32, VR128X>,
513                                  X86VectorVTInfo<16, EltVT32, VR512>,
514                                  X86VectorVTInfo< 2, EltVT64, VR128X>,
515                                  X86VectorVTInfo< 8, EltVT64, VR512>,
516                                  vinsert128_insert,
517                                  INSERT_get_vinsert128_imm>;
518   let Predicates = [HasDQI] in
519     defm NAME # "64x2" : vinsert_for_size_no_alt<Opcode128,
520                                  X86VectorVTInfo< 2, EltVT64, VR128X>,
521                                  X86VectorVTInfo< 8, EltVT64, VR512>,
522                                  vinsert128_insert,
523                                  INSERT_get_vinsert128_imm>, VEX_W;
524   defm NAME # "64x4" : vinsert_for_size<Opcode256,
525                                  X86VectorVTInfo< 4, EltVT64, VR256X>,
526                                  X86VectorVTInfo< 8, EltVT64, VR512>,
527                                  X86VectorVTInfo< 8, EltVT32, VR256>,
528                                  X86VectorVTInfo<16, EltVT32, VR512>,
529                                  vinsert256_insert,
530                                  INSERT_get_vinsert256_imm>, VEX_W;
531   let Predicates = [HasDQI] in
532     defm NAME # "32x8" : vinsert_for_size_no_alt<Opcode256,
533                                  X86VectorVTInfo< 8, EltVT32, VR256X>,
534                                  X86VectorVTInfo<16, EltVT32, VR512>,
535                                  vinsert256_insert,
536                                  INSERT_get_vinsert256_imm>;
537 }
538
539 defm VINSERTF : vinsert_for_type<f32, 0x18, f64, 0x1a>;
540 defm VINSERTI : vinsert_for_type<i32, 0x38, i64, 0x3a>;
541
542 // vinsertps - insert f32 to XMM
543 def VINSERTPSzrr : AVX512AIi8<0x21, MRMSrcReg, (outs VR128X:$dst),
544       (ins VR128X:$src1, VR128X:$src2, u8imm:$src3),
545       "vinsertps\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
546       [(set VR128X:$dst, (X86insertps VR128X:$src1, VR128X:$src2, imm:$src3))]>,
547       EVEX_4V;
548 def VINSERTPSzrm: AVX512AIi8<0x21, MRMSrcMem, (outs VR128X:$dst),
549       (ins VR128X:$src1, f32mem:$src2, u8imm:$src3),
550       "vinsertps\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}",
551       [(set VR128X:$dst, (X86insertps VR128X:$src1,
552                           (v4f32 (scalar_to_vector (loadf32 addr:$src2))),
553                           imm:$src3))]>, EVEX_4V, EVEX_CD8<32, CD8VT1>;
554
555 //===----------------------------------------------------------------------===//
556 // AVX-512 VECTOR EXTRACT
557 //---
558
559 multiclass vextract_for_size<int Opcode,
560                              X86VectorVTInfo From, X86VectorVTInfo To,
561                              X86VectorVTInfo AltFrom, X86VectorVTInfo AltTo,
562                              PatFrag vextract_extract,
563                              SDNodeXForm EXTRACT_get_vextract_imm> {
564   let hasSideEffects = 0, ExeDomain = To.ExeDomain in {
565     defm rr : AVX512_maskable_in_asm<Opcode, MRMDestReg, To, (outs To.RC:$dst),
566                 (ins VR512:$src1, u8imm:$idx),
567                 "vextract" # To.EltTypeName # "x4",
568                 "$idx, $src1", "$src1, $idx",
569                 [(set To.RC:$dst, (vextract_extract:$idx (From.VT VR512:$src1),
570                                                          (iPTR imm)))]>,
571               AVX512AIi8Base, EVEX, EVEX_V512;
572     let mayStore = 1 in
573     def rm : AVX512AIi8<Opcode, MRMDestMem, (outs),
574             (ins To.MemOp:$dst, VR512:$src1, u8imm:$src2),
575             "vextract" # To.EltTypeName # "x4\t{$src2, $src1, $dst|"
576                                                "$dst, $src1, $src2}",
577             []>, EVEX, EVEX_V512, EVEX_CD8<To.EltSize, CD8VT4>;
578   }
579
580   // Codegen pattern with the alternative types, e.g. v8i64 -> v2i64 for
581   // vextracti32x4
582   def : Pat<(vextract_extract:$ext (AltFrom.VT VR512:$src1), (iPTR imm)),
583             (AltTo.VT (!cast<Instruction>(NAME # To.EltSize # "x4rr")
584                           VR512:$src1,
585                           (EXTRACT_get_vextract_imm To.RC:$ext)))>;
586
587   // A 128/256-bit subvector extract from the first 512-bit vector position is
588   // a subregister copy that needs no instruction.
589   def : Pat<(To.VT (extract_subvector (From.VT VR512:$src), (iPTR 0))),
590             (To.VT
591                (EXTRACT_SUBREG (From.VT VR512:$src), To.SubRegIdx))>;
592
593   // And for the alternative types.
594   def : Pat<(AltTo.VT (extract_subvector (AltFrom.VT VR512:$src), (iPTR 0))),
595             (AltTo.VT
596                (EXTRACT_SUBREG (AltFrom.VT VR512:$src), AltTo.SubRegIdx))>;
597
598   // Intrinsic call with masking.
599   def : Pat<(!cast<Intrinsic>("int_x86_avx512_mask_vextract" # To.EltTypeName #
600                               "x4_512")
601                 VR512:$src1, (iPTR imm:$idx), To.RC:$src0, GR8:$mask),
602             (!cast<Instruction>(NAME # To.EltSize # "x4rrk") To.RC:$src0,
603                 (v4i1 (COPY_TO_REGCLASS GR8:$mask, VK4WM)),
604                 VR512:$src1, imm:$idx)>;
605
606   // Intrinsic call with zero-masking.
607   def : Pat<(!cast<Intrinsic>("int_x86_avx512_mask_vextract" # To.EltTypeName #
608                               "x4_512")
609                 VR512:$src1, (iPTR imm:$idx), To.ImmAllZerosV, GR8:$mask),
610             (!cast<Instruction>(NAME # To.EltSize # "x4rrkz")
611                 (v4i1 (COPY_TO_REGCLASS GR8:$mask, VK4WM)),
612                 VR512:$src1, imm:$idx)>;
613
614   // Intrinsic call without masking.
615   def : Pat<(!cast<Intrinsic>("int_x86_avx512_mask_vextract" # To.EltTypeName #
616                               "x4_512")
617                 VR512:$src1, (iPTR imm:$idx), To.ImmAllZerosV, (i8 -1)),
618             (!cast<Instruction>(NAME # To.EltSize # "x4rr")
619                 VR512:$src1, imm:$idx)>;
620 }
621
622 multiclass vextract_for_type<ValueType EltVT32, int Opcode32,
623                              ValueType EltVT64, int Opcode64> {
624   defm NAME # "32x4" : vextract_for_size<Opcode32,
625                                  X86VectorVTInfo<16, EltVT32, VR512>,
626                                  X86VectorVTInfo< 4, EltVT32, VR128X>,
627                                  X86VectorVTInfo< 8, EltVT64, VR512>,
628                                  X86VectorVTInfo< 2, EltVT64, VR128X>,
629                                  vextract128_extract,
630                                  EXTRACT_get_vextract128_imm>;
631   defm NAME # "64x4" : vextract_for_size<Opcode64,
632                                  X86VectorVTInfo< 8, EltVT64, VR512>,
633                                  X86VectorVTInfo< 4, EltVT64, VR256X>,
634                                  X86VectorVTInfo<16, EltVT32, VR512>,
635                                  X86VectorVTInfo< 8, EltVT32, VR256>,
636                                  vextract256_extract,
637                                  EXTRACT_get_vextract256_imm>, VEX_W;
638 }
639
640 defm VEXTRACTF : vextract_for_type<f32, 0x19, f64, 0x1b>;
641 defm VEXTRACTI : vextract_for_type<i32, 0x39, i64, 0x3b>;
642
643 // A 128-bit subvector insert to the first 512-bit vector position
644 // is a subregister copy that needs no instruction.
645 def : Pat<(insert_subvector undef, (v2i64 VR128X:$src), (iPTR 0)),
646           (INSERT_SUBREG (v8i64 (IMPLICIT_DEF)),
647           (INSERT_SUBREG (v4i64 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
648           sub_ymm)>;
649 def : Pat<(insert_subvector undef, (v2f64 VR128X:$src), (iPTR 0)),
650           (INSERT_SUBREG (v8f64 (IMPLICIT_DEF)),
651           (INSERT_SUBREG (v4f64 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
652           sub_ymm)>;
653 def : Pat<(insert_subvector undef, (v4i32 VR128X:$src), (iPTR 0)),
654           (INSERT_SUBREG (v16i32 (IMPLICIT_DEF)),
655           (INSERT_SUBREG (v8i32 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
656           sub_ymm)>;
657 def : Pat<(insert_subvector undef, (v4f32 VR128X:$src), (iPTR 0)),
658           (INSERT_SUBREG (v16f32 (IMPLICIT_DEF)),
659           (INSERT_SUBREG (v8f32 (IMPLICIT_DEF)), VR128X:$src, sub_xmm),
660           sub_ymm)>;
661
662 def : Pat<(insert_subvector undef, (v4i64 VR256X:$src), (iPTR 0)),
663           (INSERT_SUBREG (v8i64 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
664 def : Pat<(insert_subvector undef, (v4f64 VR256X:$src), (iPTR 0)),
665           (INSERT_SUBREG (v8f64 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
666 def : Pat<(insert_subvector undef, (v8i32 VR256X:$src), (iPTR 0)),
667           (INSERT_SUBREG (v16i32 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
668 def : Pat<(insert_subvector undef, (v8f32 VR256X:$src), (iPTR 0)),
669           (INSERT_SUBREG (v16f32 (IMPLICIT_DEF)), VR256X:$src, sub_ymm)>;
670
671 // vextractps - extract 32 bits from XMM
672 def VEXTRACTPSzrr : AVX512AIi8<0x17, MRMDestReg, (outs GR32:$dst),
673       (ins VR128X:$src1, u8imm:$src2),
674       "vextractps\t{$src2, $src1, $dst|$dst, $src1, $src2}",
675       [(set GR32:$dst, (extractelt (bc_v4i32 (v4f32 VR128X:$src1)), imm:$src2))]>,
676       EVEX;
677
678 def VEXTRACTPSzmr : AVX512AIi8<0x17, MRMDestMem, (outs),
679       (ins f32mem:$dst, VR128X:$src1, u8imm:$src2),
680       "vextractps\t{$src2, $src1, $dst|$dst, $src1, $src2}",
681       [(store (extractelt (bc_v4i32 (v4f32 VR128X:$src1)), imm:$src2),
682                           addr:$dst)]>, EVEX, EVEX_CD8<32, CD8VT1>;
683
684 //===---------------------------------------------------------------------===//
685 // AVX-512 BROADCAST
686 //---
687 multiclass avx512_fp_broadcast<bits<8> opc, SDNode OpNode, RegisterClass SrcRC,
688                               ValueType svt, X86VectorVTInfo _> {
689   defm r : AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
690                    (ins SrcRC:$src), "vbroadcast"## !subst("p", "s", _.Suffix),
691                    "$src", "$src", (_.VT (OpNode (svt SrcRC:$src)))>,
692                    T8PD, EVEX;
693
694   let mayLoad = 1 in {
695     defm m : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
696                      (ins _.ScalarMemOp:$src),
697                      "vbroadcast"##!subst("p", "s", _.Suffix), "$src", "$src",
698                      (_.VT (OpNode (_.ScalarLdFrag addr:$src)))>,
699                      T8PD, EVEX;
700   }
701 }
702
703 multiclass avx512_fp_broadcast_vl<bits<8> opc, SDNode OpNode,
704                                   AVX512VLVectorVTInfo _> {
705   defm Z  : avx512_fp_broadcast<opc, OpNode, VR128X, _.info128.VT, _.info512>,
706                              EVEX_V512;
707
708   let Predicates = [HasVLX] in {
709     defm Z256  : avx512_fp_broadcast<opc, OpNode, VR128X, _.info128.VT, _.info256>,
710                                   EVEX_V256;
711   }
712 }
713
714 let ExeDomain = SSEPackedSingle in {
715   defm VBROADCASTSS  : avx512_fp_broadcast_vl<0x18, X86VBroadcast,
716                               avx512vl_f32_info>, EVEX_CD8<32, CD8VT1>;
717    let Predicates = [HasVLX] in {
718      defm VBROADCASTSSZ128  : avx512_fp_broadcast<0x18, X86VBroadcast, VR128X,
719                                      v4f32, v4f32x_info>, EVEX_V128,
720                                      EVEX_CD8<32, CD8VT1>;
721    }
722 }
723
724 let ExeDomain = SSEPackedDouble in {
725   defm VBROADCASTSD  : avx512_fp_broadcast_vl<0x19, X86VBroadcast,
726                               avx512vl_f64_info>, VEX_W, EVEX_CD8<64, CD8VT1>;
727 }
728
729 // avx512_broadcast_pat introduces patterns for broadcast with a scalar argument.
730 // Later, we can canonize broadcast instructions before ISel phase and 
731 // eliminate additional patterns on ISel.
732 // SrcRC_v and SrcRC_s are RegisterClasses for vector and scalar
733 // representations of source
734 multiclass avx512_broadcast_pat<string InstName, SDNode OpNode,
735                                 X86VectorVTInfo _, RegisterClass SrcRC_v,
736                                 RegisterClass SrcRC_s> {
737   def : Pat<(_.VT (OpNode  (_.EltVT SrcRC_s:$src))),
738             (!cast<Instruction>(InstName##"r")
739               (COPY_TO_REGCLASS SrcRC_s:$src, SrcRC_v))>;
740
741   let AddedComplexity = 30 in {
742     def : Pat<(_.VT (vselect _.KRCWM:$mask,
743                 (OpNode (_.EltVT SrcRC_s:$src)), _.RC:$src0)),
744               (!cast<Instruction>(InstName##"rk") _.RC:$src0, _.KRCWM:$mask,
745                 (COPY_TO_REGCLASS SrcRC_s:$src, SrcRC_v))>;
746
747     def : Pat<(_.VT(vselect _.KRCWM:$mask,
748                 (OpNode (_.EltVT SrcRC_s:$src)), _.ImmAllZerosV)),
749               (!cast<Instruction>(InstName##"rkz") _.KRCWM:$mask,
750                 (COPY_TO_REGCLASS SrcRC_s:$src, SrcRC_v))>;
751   }
752 }
753
754 defm : avx512_broadcast_pat<"VBROADCASTSSZ", X86VBroadcast, v16f32_info,
755                             VR128X, FR32X>;
756 defm : avx512_broadcast_pat<"VBROADCASTSDZ", X86VBroadcast, v8f64_info,
757                             VR128X, FR64X>;
758
759 let Predicates = [HasVLX] in {
760   defm : avx512_broadcast_pat<"VBROADCASTSSZ256", X86VBroadcast,
761                               v8f32x_info, VR128X, FR32X>;
762   defm : avx512_broadcast_pat<"VBROADCASTSSZ128", X86VBroadcast,
763                               v4f32x_info, VR128X, FR32X>;
764   defm : avx512_broadcast_pat<"VBROADCASTSDZ256", X86VBroadcast,
765                               v4f64x_info, VR128X, FR64X>;
766 }
767
768 def : Pat<(v16f32 (X86VBroadcast (loadf32 addr:$src))),
769           (VBROADCASTSSZm addr:$src)>;
770 def : Pat<(v8f64 (X86VBroadcast (loadf64 addr:$src))),
771           (VBROADCASTSDZm addr:$src)>;
772
773 def : Pat<(int_x86_avx512_vbroadcast_ss_512 addr:$src),
774           (VBROADCASTSSZm addr:$src)>;
775 def : Pat<(int_x86_avx512_vbroadcast_sd_512 addr:$src),
776           (VBROADCASTSDZm addr:$src)>;
777
778 multiclass avx512_int_broadcast_reg<bits<8> opc, X86VectorVTInfo _,
779                                     RegisterClass SrcRC> {
780   defm r : AVX512_maskable_in_asm<opc, MRMSrcReg, _, (outs _.RC:$dst),
781                            (ins SrcRC:$src),  "vpbroadcast"##_.Suffix,
782                            "$src", "$src", []>, T8PD, EVEX;
783 }
784
785 multiclass avx512_int_broadcast_reg_vl<bits<8> opc, AVX512VLVectorVTInfo _,
786                                        RegisterClass SrcRC, Predicate prd> {
787   let Predicates = [prd] in
788     defm Z : avx512_int_broadcast_reg<opc, _.info512, SrcRC>, EVEX_V512;
789   let Predicates = [prd, HasVLX] in {
790     defm Z256 : avx512_int_broadcast_reg<opc, _.info256, SrcRC>, EVEX_V256;
791     defm Z128 : avx512_int_broadcast_reg<opc, _.info128, SrcRC>, EVEX_V128;
792   }
793 }
794
795 defm VPBROADCASTBr : avx512_int_broadcast_reg_vl<0x7A, avx512vl_i8_info, GR32,
796                                                  HasBWI>;
797 defm VPBROADCASTWr : avx512_int_broadcast_reg_vl<0x7B, avx512vl_i16_info, GR32,
798                                                  HasBWI>;
799 defm VPBROADCASTDr : avx512_int_broadcast_reg_vl<0x7C, avx512vl_i32_info, GR32,
800                                                  HasAVX512>;
801 defm VPBROADCASTQr : avx512_int_broadcast_reg_vl<0x7C, avx512vl_i64_info, GR64,
802                                                  HasAVX512>, VEX_W;
803
804 def : Pat <(v16i32 (X86vzext VK16WM:$mask)),
805            (VPBROADCASTDrZrkz VK16WM:$mask, (i32 (MOV32ri 0x1)))>;
806
807 def : Pat <(v8i64 (X86vzext VK8WM:$mask)),
808            (VPBROADCASTQrZrkz VK8WM:$mask, (i64 (MOV64ri 0x1)))>;
809
810 def : Pat<(v16i32 (X86VBroadcast (i32 GR32:$src))),
811         (VPBROADCASTDrZr GR32:$src)>;
812 def : Pat<(v8i64 (X86VBroadcast (i64 GR64:$src))),
813         (VPBROADCASTQrZr GR64:$src)>;
814
815 def : Pat<(v16i32 (int_x86_avx512_pbroadcastd_i32_512 (i32 GR32:$src))),
816         (VPBROADCASTDrZr GR32:$src)>;
817 def : Pat<(v8i64 (int_x86_avx512_pbroadcastq_i64_512 (i64 GR64:$src))),
818         (VPBROADCASTQrZr GR64:$src)>;
819
820 def : Pat<(v16i32 (int_x86_avx512_mask_pbroadcast_d_gpr_512 (i32 GR32:$src),
821                    (v16i32 immAllZerosV), (i16 GR16:$mask))),
822           (VPBROADCASTDrZrkz (COPY_TO_REGCLASS GR16:$mask, VK16WM), GR32:$src)>;
823 def : Pat<(v8i64 (int_x86_avx512_mask_pbroadcast_q_gpr_512 (i64 GR64:$src),
824                    (bc_v8i64 (v16i32 immAllZerosV)), (i8 GR8:$mask))),
825           (VPBROADCASTQrZrkz (COPY_TO_REGCLASS GR8:$mask, VK8WM), GR64:$src)>;
826
827 multiclass avx512_int_broadcast_rm<bits<8> opc, string OpcodeStr,
828                           X86MemOperand x86memop, PatFrag ld_frag,
829                           RegisterClass DstRC, ValueType OpVT, ValueType SrcVT,
830                           RegisterClass KRC> {
831   def rr : AVX5128I<opc, MRMSrcReg, (outs DstRC:$dst), (ins VR128X:$src),
832                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
833                   [(set DstRC:$dst,
834                     (OpVT (X86VBroadcast (SrcVT VR128X:$src))))]>, EVEX;
835   def rrk : AVX5128I<opc, MRMSrcReg, (outs DstRC:$dst), (ins KRC:$mask,
836                                                          VR128X:$src),
837                     !strconcat(OpcodeStr,
838                     "\t{$src, ${dst} {${mask}} |${dst} {${mask}}, $src}"),
839                     []>, EVEX, EVEX_K;
840   def rrkz : AVX5128I<opc, MRMSrcReg, (outs DstRC:$dst), (ins KRC:$mask,
841                                                          VR128X:$src),
842                     !strconcat(OpcodeStr,
843                     "\t{$src, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src}"),
844                     []>, EVEX, EVEX_KZ;
845   let mayLoad = 1 in {
846   def rm : AVX5128I<opc, MRMSrcMem, (outs DstRC:$dst), (ins x86memop:$src),
847                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
848                   [(set DstRC:$dst,
849                     (OpVT (X86VBroadcast (ld_frag addr:$src))))]>, EVEX;
850   def rmk : AVX5128I<opc, MRMSrcMem, (outs DstRC:$dst), (ins KRC:$mask,
851                                                          x86memop:$src),
852                   !strconcat(OpcodeStr,
853                       "\t{$src, ${dst} {${mask}}|${dst} {${mask}} , $src}"),
854                   []>, EVEX, EVEX_K;
855   def rmkz : AVX5128I<opc, MRMSrcMem, (outs DstRC:$dst), (ins KRC:$mask,
856                                                          x86memop:$src),
857                   !strconcat(OpcodeStr,
858                       "\t{$src, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src}"),
859                   [(set DstRC:$dst, (OpVT (vselect KRC:$mask,
860                              (X86VBroadcast (ld_frag addr:$src)), 
861                              (OpVT (bitconvert (v16i32 immAllZerosV))))))]>, EVEX, EVEX_KZ;
862   }
863 }
864
865 defm VPBROADCASTDZ  : avx512_int_broadcast_rm<0x58, "vpbroadcastd", i32mem,
866                       loadi32, VR512, v16i32, v4i32, VK16WM>,
867                       EVEX_V512, EVEX_CD8<32, CD8VT1>;
868 defm VPBROADCASTQZ  : avx512_int_broadcast_rm<0x59, "vpbroadcastq", i64mem,
869                       loadi64, VR512, v8i64, v2i64, VK8WM>,  EVEX_V512, VEX_W,
870                       EVEX_CD8<64, CD8VT1>;
871
872 multiclass avx512_subvec_broadcast_rm<bits<8> opc, string OpcodeStr,
873                           X86VectorVTInfo _Dst, X86VectorVTInfo _Src> {
874   let mayLoad = 1 in {
875   def rm : AVX5128I<opc, MRMSrcMem, (outs _Dst.RC:$dst), (ins _Src.MemOp:$src),
876                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
877                   [(set _Dst.RC:$dst, 
878                     (_Dst.VT (X86SubVBroadcast 
879                     (_Src.VT (bitconvert (_Src.LdFrag addr:$src))))))]>, EVEX;
880   def rmk : AVX5128I<opc, MRMSrcMem, (outs _Dst.RC:$dst), (ins _Dst.KRCWM:$mask,
881                                                          _Src.MemOp:$src),
882                   !strconcat(OpcodeStr,
883                       "\t{$src, ${dst} {${mask}}|${dst} {${mask}}, $src}"),
884                   []>, EVEX, EVEX_K;
885   def rmkz : AVX5128I<opc, MRMSrcMem, (outs _Dst.RC:$dst), (ins _Dst.KRCWM:$mask,
886                                                          _Src.MemOp:$src),
887                   !strconcat(OpcodeStr,
888                     "\t{$src, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src}"),
889                   []>, EVEX, EVEX_KZ;
890   }
891 }
892
893 defm VBROADCASTI32X4 : avx512_subvec_broadcast_rm<0x5a, "vbroadcasti32x4",
894                        v16i32_info, v4i32x_info>,
895                        EVEX_V512, EVEX_CD8<32, CD8VT4>;
896 defm VBROADCASTF32X4 : avx512_subvec_broadcast_rm<0x1a, "vbroadcastf32x4",
897                        v16f32_info, v4f32x_info>,
898                        EVEX_V512, EVEX_CD8<32, CD8VT4>;
899 defm VBROADCASTI64X4 : avx512_subvec_broadcast_rm<0x5b, "vbroadcasti64x4",
900                        v8i64_info, v4i64x_info>, VEX_W,
901                        EVEX_V512, EVEX_CD8<64, CD8VT4>;
902 defm VBROADCASTF64X4 : avx512_subvec_broadcast_rm<0x1b, "vbroadcastf64x4",
903                        v8f64_info, v4f64x_info>, VEX_W,
904                        EVEX_V512, EVEX_CD8<64, CD8VT4>;
905
906 let Predicates = [HasVLX] in {
907 defm VBROADCASTI32X4Z256 : avx512_subvec_broadcast_rm<0x5a, "vbroadcasti32x4",
908                            v8i32x_info, v4i32x_info>,
909                            EVEX_V256, EVEX_CD8<32, CD8VT4>;
910 defm VBROADCASTF32X4Z256 : avx512_subvec_broadcast_rm<0x1a, "vbroadcastf32x4",
911                            v8f32x_info, v4f32x_info>,
912                            EVEX_V256, EVEX_CD8<32, CD8VT4>;
913 }
914 let Predicates = [HasVLX, HasDQI] in {
915 defm VBROADCASTI64X2Z128 : avx512_subvec_broadcast_rm<0x5a, "vbroadcasti64x2",
916                            v4i64x_info, v2i64x_info>, VEX_W,
917                            EVEX_V256, EVEX_CD8<64, CD8VT2>;
918 defm VBROADCASTF64X2Z128 : avx512_subvec_broadcast_rm<0x1a, "vbroadcastf64x2",
919                            v4f64x_info, v2f64x_info>, VEX_W,
920                            EVEX_V256, EVEX_CD8<64, CD8VT2>;
921 }
922 let Predicates = [HasDQI] in {
923 defm VBROADCASTI64X2 : avx512_subvec_broadcast_rm<0x5a, "vbroadcasti64x2",
924                        v8i64_info, v2i64x_info>, VEX_W,
925                        EVEX_V512, EVEX_CD8<64, CD8VT2>;
926 defm VBROADCASTI32X8 : avx512_subvec_broadcast_rm<0x5b, "vbroadcasti32x8",
927                        v16i32_info, v8i32x_info>,
928                        EVEX_V512, EVEX_CD8<32, CD8VT8>;
929 defm VBROADCASTF64X2 : avx512_subvec_broadcast_rm<0x1a, "vbroadcastf64x2",
930                        v8f64_info, v2f64x_info>, VEX_W,
931                        EVEX_V512, EVEX_CD8<64, CD8VT2>;
932 defm VBROADCASTF32X8 : avx512_subvec_broadcast_rm<0x1b, "vbroadcastf32x8",
933                        v16f32_info, v8f32x_info>,
934                        EVEX_V512, EVEX_CD8<32, CD8VT8>;
935 }
936
937 def : Pat<(v16i32 (int_x86_avx512_pbroadcastd_512 (v4i32 VR128X:$src))),
938           (VPBROADCASTDZrr VR128X:$src)>;
939 def : Pat<(v8i64 (int_x86_avx512_pbroadcastq_512 (v2i64 VR128X:$src))),
940           (VPBROADCASTQZrr VR128X:$src)>;
941
942 def : Pat<(v16f32 (X86VBroadcast (v16f32 VR512:$src))),
943           (VBROADCASTSSZr (EXTRACT_SUBREG (v16f32 VR512:$src), sub_xmm))>;
944 def : Pat<(v16f32 (X86VBroadcast (v8f32 VR256X:$src))),
945           (VBROADCASTSSZr (EXTRACT_SUBREG (v8f32 VR256X:$src), sub_xmm))>;
946
947 def : Pat<(v8f64 (X86VBroadcast (v8f64 VR512:$src))),
948           (VBROADCASTSDZr (EXTRACT_SUBREG (v8f64 VR512:$src), sub_xmm))>;
949 def : Pat<(v8f64 (X86VBroadcast (v4f64 VR256X:$src))),
950           (VBROADCASTSDZr (EXTRACT_SUBREG (v4f64 VR256X:$src), sub_xmm))>;
951
952 def : Pat<(v16i32 (X86VBroadcast (v16i32 VR512:$src))),
953           (VPBROADCASTDZrr (EXTRACT_SUBREG (v16i32 VR512:$src), sub_xmm))>;
954 def : Pat<(v16i32 (X86VBroadcast (v8i32 VR256X:$src))),
955           (VPBROADCASTDZrr (EXTRACT_SUBREG (v8i32 VR256X:$src), sub_xmm))>;
956
957 def : Pat<(v8i64 (X86VBroadcast (v8i64 VR512:$src))),
958           (VPBROADCASTQZrr (EXTRACT_SUBREG (v8i64 VR512:$src), sub_xmm))>;
959 def : Pat<(v8i64 (X86VBroadcast (v4i64 VR256X:$src))),
960           (VPBROADCASTQZrr (EXTRACT_SUBREG (v4i64 VR256X:$src), sub_xmm))>;
961
962 def : Pat<(v16f32 (int_x86_avx512_vbroadcast_ss_ps_512 (v4f32 VR128X:$src))),
963           (VBROADCASTSSZr VR128X:$src)>;
964 def : Pat<(v8f64 (int_x86_avx512_vbroadcast_sd_pd_512 (v2f64 VR128X:$src))),
965           (VBROADCASTSDZr VR128X:$src)>;
966
967 // Provide fallback in case the load node that is used in the patterns above
968 // is used by additional users, which prevents the pattern selection.
969 def : Pat<(v16f32 (X86VBroadcast FR32X:$src)),
970           (VBROADCASTSSZr (COPY_TO_REGCLASS FR32X:$src, VR128X))>;
971 def : Pat<(v8f64 (X86VBroadcast FR64X:$src)),
972           (VBROADCASTSDZr (COPY_TO_REGCLASS FR64X:$src, VR128X))>;
973
974
975 //===----------------------------------------------------------------------===//
976 // AVX-512 BROADCAST MASK TO VECTOR REGISTER
977 //---
978
979 multiclass avx512_mask_broadcast<bits<8> opc, string OpcodeStr,
980                        RegisterClass KRC> {
981 let Predicates = [HasCDI] in
982 def Zrr : AVX512XS8I<opc, MRMSrcReg, (outs VR512:$dst), (ins KRC:$src),
983                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
984                   []>, EVEX, EVEX_V512;
985
986 let Predicates = [HasCDI, HasVLX] in {
987 def Z128rr : AVX512XS8I<opc, MRMSrcReg, (outs VR128:$dst), (ins KRC:$src),
988                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
989                   []>, EVEX, EVEX_V128;
990 def Z256rr : AVX512XS8I<opc, MRMSrcReg, (outs VR256:$dst), (ins KRC:$src),
991                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
992                   []>, EVEX, EVEX_V256;
993 }
994 }
995
996 let Predicates = [HasCDI] in {
997 defm VPBROADCASTMW2D : avx512_mask_broadcast<0x3A, "vpbroadcastmw2d",
998                                              VK16>;
999 defm VPBROADCASTMB2Q : avx512_mask_broadcast<0x2A, "vpbroadcastmb2q",
1000                                              VK8>, VEX_W;
1001 }
1002
1003 //===----------------------------------------------------------------------===//
1004 // AVX-512 - VPERM
1005 //
1006 // -- immediate form --
1007 multiclass avx512_perm_imm<bits<8> opc, string OpcodeStr, SDNode OpNode,
1008                            X86VectorVTInfo _> {
1009   let ExeDomain = _.ExeDomain in {
1010   def ri : AVX512AIi8<opc, MRMSrcReg, (outs _.RC:$dst),
1011                      (ins _.RC:$src1, u8imm:$src2),
1012                      !strconcat(OpcodeStr,
1013                          "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1014                      [(set _.RC:$dst,
1015                        (_.VT (OpNode _.RC:$src1, (i8 imm:$src2))))]>,
1016                      EVEX;
1017   def mi : AVX512AIi8<opc, MRMSrcMem, (outs _.RC:$dst),
1018                      (ins _.MemOp:$src1, u8imm:$src2),
1019                      !strconcat(OpcodeStr,
1020                          "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1021                      [(set _.RC:$dst,
1022                        (_.VT (OpNode (_.LdFrag addr:$src1),
1023                               (i8 imm:$src2))))]>,
1024            EVEX, EVEX_CD8<_.EltSize, CD8VF>;
1025 }
1026 }
1027
1028 multiclass avx512_permil<bits<8> OpcImm, bits<8> OpcVar, X86VectorVTInfo _,
1029                          X86VectorVTInfo Ctrl> :
1030      avx512_perm_imm<OpcImm, "vpermil" # _.Suffix, X86VPermilpi, _> {
1031   let ExeDomain = _.ExeDomain in {
1032     def rr : AVX5128I<OpcVar, MRMSrcReg, (outs _.RC:$dst),
1033                      (ins _.RC:$src1, _.RC:$src2),
1034                      !strconcat("vpermil" # _.Suffix,
1035                          "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1036                      [(set _.RC:$dst,
1037                          (_.VT (X86VPermilpv _.RC:$src1,
1038                                   (Ctrl.VT Ctrl.RC:$src2))))]>,
1039              EVEX_4V;
1040     def rm : AVX5128I<OpcVar, MRMSrcMem, (outs _.RC:$dst),
1041                      (ins _.RC:$src1, Ctrl.MemOp:$src2),
1042                      !strconcat("vpermil" # _.Suffix,
1043                          "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1044                      [(set _.RC:$dst,
1045                          (_.VT (X86VPermilpv _.RC:$src1,
1046                                   (Ctrl.VT (Ctrl.LdFrag addr:$src2)))))]>,
1047              EVEX_4V;
1048   }
1049 }
1050
1051 defm VPERMQZ :    avx512_perm_imm<0x00, "vpermq", X86VPermi, v8i64_info>,
1052                   EVEX_V512, VEX_W;
1053 defm VPERMPDZ :   avx512_perm_imm<0x01, "vpermpd", X86VPermi, v8f64_info>,
1054                   EVEX_V512, VEX_W;
1055
1056 defm VPERMILPSZ : avx512_permil<0x04, 0x0C, v16f32_info, v16i32_info>,
1057                   EVEX_V512;
1058 defm VPERMILPDZ : avx512_permil<0x05, 0x0D, v8f64_info, v8i64_info>,
1059                   EVEX_V512, VEX_W;
1060
1061 def : Pat<(v16i32 (X86VPermilpi VR512:$src1, (i8 imm:$imm))),
1062           (VPERMILPSZri VR512:$src1, imm:$imm)>;
1063 def : Pat<(v8i64 (X86VPermilpi VR512:$src1, (i8 imm:$imm))),
1064           (VPERMILPDZri VR512:$src1, imm:$imm)>;
1065
1066 // -- VPERM - register form --
1067 multiclass avx512_perm<bits<8> opc, string OpcodeStr, RegisterClass RC,
1068                      PatFrag mem_frag, X86MemOperand x86memop, ValueType OpVT> {
1069
1070   def rr : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
1071                    (ins RC:$src1, RC:$src2),
1072                    !strconcat(OpcodeStr,
1073                        "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1074                    [(set RC:$dst,
1075                      (OpVT (X86VPermv RC:$src1, RC:$src2)))]>, EVEX_4V;
1076
1077   def rm : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
1078                    (ins RC:$src1, x86memop:$src2),
1079                    !strconcat(OpcodeStr,
1080                        "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1081                    [(set RC:$dst,
1082                      (OpVT (X86VPermv RC:$src1, (mem_frag addr:$src2))))]>,
1083                      EVEX_4V;
1084 }
1085
1086 defm VPERMDZ   : avx512_perm<0x36, "vpermd",  VR512,  loadv16i32, i512mem,
1087                            v16i32>, EVEX_V512, EVEX_CD8<32, CD8VF>;
1088 defm VPERMQZ   : avx512_perm<0x36, "vpermq",  VR512,  loadv8i64,  i512mem,
1089                            v8i64>,  EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
1090 let ExeDomain = SSEPackedSingle in
1091 defm VPERMPSZ  : avx512_perm<0x16, "vpermps", VR512,  loadv16f32, f512mem,
1092                            v16f32>, EVEX_V512, EVEX_CD8<32, CD8VF>;
1093 let ExeDomain = SSEPackedDouble in
1094 defm VPERMPDZ  : avx512_perm<0x16, "vpermpd", VR512,  loadv8f64, f512mem,
1095                            v8f64>, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
1096
1097 // -- VPERM2I - 3 source operands form --
1098 multiclass avx512_perm_3src<bits<8> opc, string OpcodeStr, RegisterClass RC,
1099                           PatFrag mem_frag, X86MemOperand x86memop,
1100                           SDNode OpNode, ValueType OpVT, RegisterClass KRC> {
1101 let Constraints = "$src1 = $dst" in {
1102   def rr : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
1103                    (ins RC:$src1, RC:$src2, RC:$src3),
1104                    !strconcat(OpcodeStr,
1105                        "\t{$src3, $src2, $dst|$dst, $src2, $src3}"),
1106                    [(set RC:$dst,
1107                      (OpVT (OpNode RC:$src1, RC:$src2, RC:$src3)))]>,
1108                     EVEX_4V;
1109
1110   def rrk : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
1111                    (ins RC:$src1, KRC:$mask, RC:$src2, RC:$src3),
1112                    !strconcat(OpcodeStr,
1113                        "\t{$src3, $src2, $dst {${mask}}|"
1114                        "$dst {${mask}}, $src2, $src3}"),
1115                    [(set RC:$dst, (OpVT (vselect KRC:$mask,
1116                                            (OpNode RC:$src1, RC:$src2,
1117                                               RC:$src3),
1118                                            RC:$src1)))]>,
1119                     EVEX_4V, EVEX_K;
1120
1121   let AddedComplexity = 30 in // Prefer over VMOV*rrkz Pat<>
1122     def rrkz : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
1123                    (ins RC:$src1, KRC:$mask, RC:$src2, RC:$src3),
1124                    !strconcat(OpcodeStr,
1125                        "\t{$src3, $src2, $dst {${mask}} {z} |",
1126                        "$dst {${mask}} {z}, $src2, $src3}"),
1127                    [(set RC:$dst, (OpVT (vselect KRC:$mask,
1128                                            (OpNode RC:$src1, RC:$src2,
1129                                               RC:$src3),
1130                                            (OpVT (bitconvert
1131                                               (v16i32 immAllZerosV))))))]>,
1132                     EVEX_4V, EVEX_KZ;
1133
1134   def rm : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
1135                    (ins RC:$src1, RC:$src2, x86memop:$src3),
1136                    !strconcat(OpcodeStr,
1137                     "\t{$src3, $src2, $dst|$dst, $src2, $src3}"),
1138                    [(set RC:$dst,
1139                      (OpVT (OpNode RC:$src1, RC:$src2,
1140                       (mem_frag addr:$src3))))]>, EVEX_4V;
1141
1142   def rmk : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
1143                    (ins RC:$src1, KRC:$mask, RC:$src2, x86memop:$src3),
1144                    !strconcat(OpcodeStr,
1145                     "\t{$src3, $src2, $dst {${mask}}|"
1146                     "$dst {${mask}}, $src2, $src3}"),
1147                    [(set RC:$dst,
1148                        (OpVT (vselect KRC:$mask,
1149                                       (OpNode RC:$src1, RC:$src2,
1150                                          (mem_frag addr:$src3)),
1151                                       RC:$src1)))]>,
1152                     EVEX_4V, EVEX_K;
1153
1154   let AddedComplexity = 10 in // Prefer over the rrkz variant
1155     def rmkz : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
1156                    (ins RC:$src1, KRC:$mask, RC:$src2, x86memop:$src3),
1157                    !strconcat(OpcodeStr,
1158                     "\t{$src3, $src2, $dst {${mask}} {z}|"
1159                     "$dst {${mask}} {z}, $src2, $src3}"),
1160                    [(set RC:$dst,
1161                      (OpVT (vselect KRC:$mask,
1162                                     (OpNode RC:$src1, RC:$src2,
1163                                             (mem_frag addr:$src3)),
1164                                     (OpVT (bitconvert
1165                                        (v16i32 immAllZerosV))))))]>,
1166                     EVEX_4V, EVEX_KZ;
1167   }
1168 }
1169 defm VPERMI2D  : avx512_perm_3src<0x76, "vpermi2d",  VR512, loadv16i32,
1170                                   i512mem, X86VPermiv3, v16i32, VK16WM>,
1171                  EVEX_V512, EVEX_CD8<32, CD8VF>;
1172 defm VPERMI2Q  : avx512_perm_3src<0x76, "vpermi2q",  VR512, loadv8i64,
1173                                   i512mem, X86VPermiv3, v8i64, VK8WM>,
1174                  EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
1175 defm VPERMI2PS : avx512_perm_3src<0x77, "vpermi2ps",  VR512, loadv16f32,
1176                                   i512mem, X86VPermiv3, v16f32, VK16WM>,
1177                  EVEX_V512, EVEX_CD8<32, CD8VF>;
1178 defm VPERMI2PD : avx512_perm_3src<0x77, "vpermi2pd",  VR512, loadv8f64,
1179                                   i512mem, X86VPermiv3, v8f64, VK8WM>,
1180                   EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
1181
1182 multiclass avx512_perm_table_3src<bits<8> opc, string Suffix, RegisterClass RC,
1183                           PatFrag mem_frag, X86MemOperand x86memop,
1184                           SDNode OpNode, ValueType OpVT, RegisterClass KRC,
1185                           ValueType MaskVT, RegisterClass MRC> :
1186         avx512_perm_3src<opc, "vpermt2"##Suffix, RC, mem_frag, x86memop, OpNode,
1187                          OpVT, KRC> {
1188   def : Pat<(OpVT (!cast<Intrinsic>("int_x86_avx512_mask_vpermt_"##Suffix##"_512")
1189                      VR512:$idx, VR512:$src1, VR512:$src2, -1)),
1190             (!cast<Instruction>(NAME#rr) VR512:$src1, VR512:$idx, VR512:$src2)>;
1191
1192   def : Pat<(OpVT (!cast<Intrinsic>("int_x86_avx512_mask_vpermt_"##Suffix##"_512")
1193                      VR512:$idx, VR512:$src1, VR512:$src2, MRC:$mask)),
1194             (!cast<Instruction>(NAME#rrk) VR512:$src1,
1195               (MaskVT (COPY_TO_REGCLASS MRC:$mask, KRC)), VR512:$idx, VR512:$src2)>;
1196 }
1197
1198 defm VPERMT2D  : avx512_perm_table_3src<0x7E, "d",  VR512, loadv16i32, i512mem,
1199                                X86VPermv3, v16i32, VK16WM, v16i1, GR16>,
1200                  EVEX_V512, EVEX_CD8<32, CD8VF>;
1201 defm VPERMT2Q  : avx512_perm_table_3src<0x7E, "q",  VR512, loadv8i64, i512mem,
1202                                X86VPermv3, v8i64, VK8WM, v8i1, GR8>,
1203                  EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
1204 defm VPERMT2PS : avx512_perm_table_3src<0x7F, "ps",  VR512, loadv16f32, i512mem,
1205                                X86VPermv3, v16f32, VK16WM, v16i1, GR16>,
1206                  EVEX_V512, EVEX_CD8<32, CD8VF>;
1207 defm VPERMT2PD : avx512_perm_table_3src<0x7F, "pd",  VR512, loadv8f64, i512mem,
1208                                X86VPermv3, v8f64, VK8WM, v8i1, GR8>,
1209                  EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
1210
1211 //===----------------------------------------------------------------------===//
1212 // AVX-512 - BLEND using mask
1213 //
1214 multiclass avx512_blendmask<bits<8> opc, string OpcodeStr, X86VectorVTInfo _> {
1215   let ExeDomain = _.ExeDomain in {
1216   def rr : AVX5128I<opc, MRMSrcReg, (outs _.RC:$dst),
1217              (ins _.RC:$src1, _.RC:$src2),
1218              !strconcat(OpcodeStr,
1219              "\t{$src2, $src1, ${dst} |${dst}, $src1, $src2}"),
1220              []>, EVEX_4V;
1221   def rrk : AVX5128I<opc, MRMSrcReg, (outs _.RC:$dst),
1222              (ins _.KRCWM:$mask, _.RC:$src1, _.RC:$src2),
1223              !strconcat(OpcodeStr,
1224              "\t{$src2, $src1, ${dst} {${mask}}|${dst} {${mask}}, $src1, $src2}"),
1225              [(set _.RC:$dst, (X86select _.KRCWM:$mask, (_.VT _.RC:$src1),
1226                  (_.VT _.RC:$src2)))]>, EVEX_4V, EVEX_K;
1227   def rrkz : AVX5128I<opc, MRMSrcReg, (outs _.RC:$dst),
1228              (ins _.KRCWM:$mask, _.RC:$src1, _.RC:$src2),
1229              !strconcat(OpcodeStr,
1230              "\t{$src2, $src1, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src1, $src2}"),
1231              []>, EVEX_4V, EVEX_KZ;
1232   let mayLoad = 1 in {
1233   def rm  : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
1234              (ins _.RC:$src1, _.MemOp:$src2),
1235              !strconcat(OpcodeStr,
1236              "\t{$src2, $src1, ${dst} |${dst},  $src1, $src2}"),
1237              []>, EVEX_4V, EVEX_CD8<_.EltSize, CD8VF>;
1238   def rmk : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
1239              (ins _.KRCWM:$mask, _.RC:$src1, _.MemOp:$src2),
1240              !strconcat(OpcodeStr,
1241              "\t{$src2, $src1, ${dst} {${mask}}|${dst} {${mask}}, $src1, $src2}"),
1242              [(set _.RC:$dst, (X86select _.KRCWM:$mask, (_.VT _.RC:$src1),
1243               (_.VT (bitconvert (_.LdFrag addr:$src2)))))]>,
1244               EVEX_4V, EVEX_K, EVEX_CD8<_.EltSize, CD8VF>;
1245   def rmkz : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
1246              (ins _.KRCWM:$mask, _.RC:$src1, _.MemOp:$src2),
1247              !strconcat(OpcodeStr,
1248              "\t{$src2, $src1, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src1, $src2}"),
1249              []>, EVEX_4V, EVEX_KZ, EVEX_CD8<_.EltSize, CD8VF>;
1250   }
1251   }
1252 }
1253 multiclass avx512_blendmask_rmb<bits<8> opc, string OpcodeStr, X86VectorVTInfo _> {
1254
1255   def rmbk : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
1256       (ins _.KRCWM:$mask, _.RC:$src1, _.ScalarMemOp:$src2),
1257        !strconcat(OpcodeStr,
1258             "\t{${src2}", _.BroadcastStr, ", $src1, $dst {${mask}}|",
1259             "$dst {${mask}}, $src1, ${src2}", _.BroadcastStr, "}"),
1260       [(set _.RC:$dst,(X86select _.KRCWM:$mask, (_.VT _.RC:$src1),
1261                        (X86VBroadcast (_.ScalarLdFrag addr:$src2))))]>,
1262       EVEX_4V, EVEX_K, EVEX_B, EVEX_CD8<_.EltSize, CD8VF>;
1263
1264   def rmb : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
1265       (ins _.RC:$src1, _.ScalarMemOp:$src2),
1266        !strconcat(OpcodeStr,
1267             "\t{${src2}", _.BroadcastStr, ", $src1, $dst|",
1268             "$dst, $src1, ${src2}", _.BroadcastStr, "}"),
1269       []>,  EVEX_4V, EVEX_B, EVEX_CD8<_.EltSize, CD8VF>;
1270
1271 }
1272
1273 multiclass blendmask_dq <bits<8> opc, string OpcodeStr,
1274                                  AVX512VLVectorVTInfo VTInfo> {
1275   defm Z : avx512_blendmask      <opc, OpcodeStr, VTInfo.info512>,
1276            avx512_blendmask_rmb  <opc, OpcodeStr, VTInfo.info512>, EVEX_V512;
1277
1278   let Predicates = [HasVLX] in {
1279     defm Z256 : avx512_blendmask<opc, OpcodeStr, VTInfo.info256>,
1280                 avx512_blendmask_rmb  <opc, OpcodeStr, VTInfo.info256>, EVEX_V256;
1281     defm Z128 : avx512_blendmask<opc, OpcodeStr, VTInfo.info128>,
1282                 avx512_blendmask_rmb  <opc, OpcodeStr, VTInfo.info128>, EVEX_V128;
1283   }
1284 }
1285
1286 multiclass blendmask_bw <bits<8> opc, string OpcodeStr,
1287                          AVX512VLVectorVTInfo VTInfo> {
1288   let Predicates = [HasBWI] in
1289     defm Z : avx512_blendmask    <opc, OpcodeStr, VTInfo.info512>, EVEX_V512;
1290
1291   let Predicates = [HasBWI, HasVLX] in {
1292     defm Z256 : avx512_blendmask <opc, OpcodeStr, VTInfo.info256>, EVEX_V256;
1293     defm Z128 : avx512_blendmask <opc, OpcodeStr, VTInfo.info128>, EVEX_V128;
1294   }
1295 }
1296
1297
1298 defm VBLENDMPS : blendmask_dq <0x65, "vblendmps", avx512vl_f32_info>;
1299 defm VBLENDMPD : blendmask_dq <0x65, "vblendmpd", avx512vl_f64_info>, VEX_W;
1300 defm VPBLENDMD : blendmask_dq <0x64, "vpblendmd", avx512vl_i32_info>;
1301 defm VPBLENDMQ : blendmask_dq <0x64, "vpblendmq", avx512vl_i64_info>, VEX_W;
1302 defm VPBLENDMB : blendmask_bw <0x66, "vpblendmb", avx512vl_i8_info>;
1303 defm VPBLENDMW : blendmask_bw <0x66, "vpblendmw", avx512vl_i16_info>, VEX_W;
1304
1305
1306 let Predicates = [HasAVX512] in {
1307 def : Pat<(v8f32 (vselect (v8i1 VK8WM:$mask), (v8f32 VR256X:$src1),
1308                             (v8f32 VR256X:$src2))),
1309             (EXTRACT_SUBREG
1310               (v16f32 (VBLENDMPSZrrk (COPY_TO_REGCLASS VK8WM:$mask, VK16WM),
1311             (v16f32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm)),
1312             (v16f32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)))), sub_ymm)>;
1313
1314 def : Pat<(v8i32 (vselect (v8i1 VK8WM:$mask), (v8i32 VR256X:$src1),
1315                             (v8i32 VR256X:$src2))),
1316             (EXTRACT_SUBREG
1317                 (v16i32 (VPBLENDMDZrrk (COPY_TO_REGCLASS VK8WM:$mask, VK16WM),
1318             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm)),
1319             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)))), sub_ymm)>;
1320 }
1321 //===----------------------------------------------------------------------===//
1322 // Compare Instructions
1323 //===----------------------------------------------------------------------===//
1324
1325 // avx512_cmp_scalar - AVX512 CMPSS and CMPSD
1326 multiclass avx512_cmp_scalar<RegisterClass RC, X86MemOperand x86memop,
1327                             SDNode OpNode, ValueType VT,
1328                             PatFrag ld_frag, string Suffix> {
1329   def rr : AVX512Ii8<0xC2, MRMSrcReg,
1330                 (outs VK1:$dst), (ins RC:$src1, RC:$src2, AVXCC:$cc),
1331                 !strconcat("vcmp${cc}", Suffix,
1332                            "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1333                 [(set VK1:$dst, (OpNode (VT RC:$src1), RC:$src2, imm:$cc))],
1334                 IIC_SSE_ALU_F32S_RR>, EVEX_4V;
1335   def rm : AVX512Ii8<0xC2, MRMSrcMem,
1336                 (outs VK1:$dst), (ins RC:$src1, x86memop:$src2, AVXCC:$cc),
1337                 !strconcat("vcmp${cc}", Suffix,
1338                            "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1339                 [(set VK1:$dst, (OpNode (VT RC:$src1),
1340                 (ld_frag addr:$src2), imm:$cc))], IIC_SSE_ALU_F32P_RM>, EVEX_4V;
1341   let isAsmParserOnly = 1, hasSideEffects = 0 in {
1342     def rri_alt : AVX512Ii8<0xC2, MRMSrcReg,
1343                (outs VK1:$dst), (ins RC:$src1, RC:$src2, u8imm:$cc),
1344                !strconcat("vcmp", Suffix,
1345                           "\t{$cc, $src2, $src1, $dst|$dst, $src1, $src2, $cc}"),
1346                [], IIC_SSE_ALU_F32S_RR>, EVEX_4V;
1347     let mayLoad = 1 in
1348     def rmi_alt : AVX512Ii8<0xC2, MRMSrcMem,
1349                (outs VK1:$dst), (ins RC:$src1, x86memop:$src2, u8imm:$cc),
1350                !strconcat("vcmp", Suffix,
1351                           "\t{$cc, $src2, $src1, $dst|$dst, $src1, $src2, $cc}"),
1352                [], IIC_SSE_ALU_F32P_RM>, EVEX_4V;
1353   }
1354 }
1355
1356 let Predicates = [HasAVX512] in {
1357 defm VCMPSSZ : avx512_cmp_scalar<FR32X, f32mem, X86cmpms, f32, loadf32, "ss">,
1358                                  XS;
1359 defm VCMPSDZ : avx512_cmp_scalar<FR64X, f64mem, X86cmpms, f64, loadf64, "sd">,
1360                                  XD, VEX_W;
1361 }
1362
1363 multiclass avx512_icmp_packed<bits<8> opc, string OpcodeStr, SDNode OpNode,
1364               X86VectorVTInfo _> {
1365   def rr : AVX512BI<opc, MRMSrcReg,
1366              (outs _.KRC:$dst), (ins _.RC:$src1, _.RC:$src2),
1367              !strconcat(OpcodeStr, "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1368              [(set _.KRC:$dst, (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2)))],
1369              IIC_SSE_ALU_F32P_RR>, EVEX_4V;
1370   let mayLoad = 1 in
1371   def rm : AVX512BI<opc, MRMSrcMem,
1372              (outs _.KRC:$dst), (ins _.RC:$src1, _.MemOp:$src2),
1373              !strconcat(OpcodeStr, "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1374              [(set _.KRC:$dst, (OpNode (_.VT _.RC:$src1),
1375                                      (_.VT (bitconvert (_.LdFrag addr:$src2)))))],
1376              IIC_SSE_ALU_F32P_RM>, EVEX_4V;
1377   def rrk : AVX512BI<opc, MRMSrcReg,
1378               (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1, _.RC:$src2),
1379               !strconcat(OpcodeStr, "\t{$src2, $src1, $dst {${mask}}|",
1380                           "$dst {${mask}}, $src1, $src2}"),
1381               [(set _.KRC:$dst, (and _.KRCWM:$mask,
1382                                    (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2))))],
1383               IIC_SSE_ALU_F32P_RR>, EVEX_4V, EVEX_K;
1384   let mayLoad = 1 in
1385   def rmk : AVX512BI<opc, MRMSrcMem,
1386               (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1, _.MemOp:$src2),
1387               !strconcat(OpcodeStr, "\t{$src2, $src1, $dst {${mask}}|",
1388                           "$dst {${mask}}, $src1, $src2}"),
1389               [(set _.KRC:$dst, (and _.KRCWM:$mask,
1390                                    (OpNode (_.VT _.RC:$src1),
1391                                        (_.VT (bitconvert
1392                                               (_.LdFrag addr:$src2))))))],
1393               IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_K;
1394 }
1395
1396 multiclass avx512_icmp_packed_rmb<bits<8> opc, string OpcodeStr, SDNode OpNode,
1397               X86VectorVTInfo _> :
1398            avx512_icmp_packed<opc, OpcodeStr, OpNode, _> {
1399   let mayLoad = 1 in {
1400   def rmb : AVX512BI<opc, MRMSrcMem,
1401               (outs _.KRC:$dst), (ins _.RC:$src1, _.ScalarMemOp:$src2),
1402               !strconcat(OpcodeStr, "\t{${src2}", _.BroadcastStr, ", $src1, $dst",
1403                                     "|$dst, $src1, ${src2}", _.BroadcastStr, "}"),
1404               [(set _.KRC:$dst, (OpNode (_.VT _.RC:$src1),
1405                               (X86VBroadcast (_.ScalarLdFrag addr:$src2))))],
1406               IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_B;
1407   def rmbk : AVX512BI<opc, MRMSrcMem,
1408                (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1,
1409                                        _.ScalarMemOp:$src2),
1410                !strconcat(OpcodeStr,
1411                           "\t{${src2}", _.BroadcastStr, ", $src1, $dst {${mask}}|",
1412                           "$dst {${mask}}, $src1, ${src2}", _.BroadcastStr, "}"),
1413                [(set _.KRC:$dst, (and _.KRCWM:$mask,
1414                                       (OpNode (_.VT _.RC:$src1),
1415                                         (X86VBroadcast
1416                                           (_.ScalarLdFrag addr:$src2)))))],
1417                IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_K, EVEX_B;
1418   }
1419 }
1420
1421 multiclass avx512_icmp_packed_vl<bits<8> opc, string OpcodeStr, SDNode OpNode,
1422                                  AVX512VLVectorVTInfo VTInfo, Predicate prd> {
1423   let Predicates = [prd] in
1424   defm Z : avx512_icmp_packed<opc, OpcodeStr, OpNode, VTInfo.info512>,
1425            EVEX_V512;
1426
1427   let Predicates = [prd, HasVLX] in {
1428     defm Z256 : avx512_icmp_packed<opc, OpcodeStr, OpNode, VTInfo.info256>,
1429                 EVEX_V256;
1430     defm Z128 : avx512_icmp_packed<opc, OpcodeStr, OpNode, VTInfo.info128>,
1431                 EVEX_V128;
1432   }
1433 }
1434
1435 multiclass avx512_icmp_packed_rmb_vl<bits<8> opc, string OpcodeStr,
1436                                   SDNode OpNode, AVX512VLVectorVTInfo VTInfo,
1437                                   Predicate prd> {
1438   let Predicates = [prd] in
1439   defm Z : avx512_icmp_packed_rmb<opc, OpcodeStr, OpNode, VTInfo.info512>,
1440            EVEX_V512;
1441
1442   let Predicates = [prd, HasVLX] in {
1443     defm Z256 : avx512_icmp_packed_rmb<opc, OpcodeStr, OpNode, VTInfo.info256>,
1444                 EVEX_V256;
1445     defm Z128 : avx512_icmp_packed_rmb<opc, OpcodeStr, OpNode, VTInfo.info128>,
1446                 EVEX_V128;
1447   }
1448 }
1449
1450 defm VPCMPEQB : avx512_icmp_packed_vl<0x74, "vpcmpeqb", X86pcmpeqm,
1451                       avx512vl_i8_info, HasBWI>,
1452                 EVEX_CD8<8, CD8VF>;
1453
1454 defm VPCMPEQW : avx512_icmp_packed_vl<0x75, "vpcmpeqw", X86pcmpeqm,
1455                       avx512vl_i16_info, HasBWI>,
1456                 EVEX_CD8<16, CD8VF>;
1457
1458 defm VPCMPEQD : avx512_icmp_packed_rmb_vl<0x76, "vpcmpeqd", X86pcmpeqm,
1459                       avx512vl_i32_info, HasAVX512>,
1460                 EVEX_CD8<32, CD8VF>;
1461
1462 defm VPCMPEQQ : avx512_icmp_packed_rmb_vl<0x29, "vpcmpeqq", X86pcmpeqm,
1463                       avx512vl_i64_info, HasAVX512>,
1464                 T8PD, VEX_W, EVEX_CD8<64, CD8VF>;
1465
1466 defm VPCMPGTB : avx512_icmp_packed_vl<0x64, "vpcmpgtb", X86pcmpgtm,
1467                       avx512vl_i8_info, HasBWI>,
1468                 EVEX_CD8<8, CD8VF>;
1469
1470 defm VPCMPGTW : avx512_icmp_packed_vl<0x65, "vpcmpgtw", X86pcmpgtm,
1471                       avx512vl_i16_info, HasBWI>,
1472                 EVEX_CD8<16, CD8VF>;
1473
1474 defm VPCMPGTD : avx512_icmp_packed_rmb_vl<0x66, "vpcmpgtd", X86pcmpgtm,
1475                       avx512vl_i32_info, HasAVX512>,
1476                 EVEX_CD8<32, CD8VF>;
1477
1478 defm VPCMPGTQ : avx512_icmp_packed_rmb_vl<0x37, "vpcmpgtq", X86pcmpgtm,
1479                       avx512vl_i64_info, HasAVX512>,
1480                 T8PD, VEX_W, EVEX_CD8<64, CD8VF>;
1481
1482 def : Pat<(v8i1 (X86pcmpgtm (v8i32 VR256X:$src1), (v8i32 VR256X:$src2))),
1483             (COPY_TO_REGCLASS (VPCMPGTDZrr
1484             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)),
1485             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm))), VK8)>;
1486
1487 def : Pat<(v8i1 (X86pcmpeqm (v8i32 VR256X:$src1), (v8i32 VR256X:$src2))),
1488             (COPY_TO_REGCLASS (VPCMPEQDZrr
1489             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)),
1490             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm))), VK8)>;
1491
1492 multiclass avx512_icmp_cc<bits<8> opc, string Suffix, SDNode OpNode,
1493                           X86VectorVTInfo _> {
1494   def rri : AVX512AIi8<opc, MRMSrcReg,
1495              (outs _.KRC:$dst), (ins _.RC:$src1, _.RC:$src2, AVX512ICC:$cc),
1496              !strconcat("vpcmp${cc}", Suffix,
1497                         "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1498              [(set _.KRC:$dst, (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
1499                                        imm:$cc))],
1500              IIC_SSE_ALU_F32P_RR>, EVEX_4V;
1501   let mayLoad = 1 in
1502   def rmi : AVX512AIi8<opc, MRMSrcMem,
1503              (outs _.KRC:$dst), (ins _.RC:$src1, _.MemOp:$src2, AVX512ICC:$cc),
1504              !strconcat("vpcmp${cc}", Suffix,
1505                         "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
1506              [(set _.KRC:$dst, (OpNode (_.VT _.RC:$src1),
1507                               (_.VT (bitconvert (_.LdFrag addr:$src2))),
1508                               imm:$cc))],
1509              IIC_SSE_ALU_F32P_RM>, EVEX_4V;
1510   def rrik : AVX512AIi8<opc, MRMSrcReg,
1511               (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1, _.RC:$src2,
1512                                       AVX512ICC:$cc),
1513               !strconcat("vpcmp${cc}", Suffix,
1514                          "\t{$src2, $src1, $dst {${mask}}|",
1515                          "$dst {${mask}}, $src1, $src2}"),
1516               [(set _.KRC:$dst, (and _.KRCWM:$mask,
1517                                   (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
1518                                           imm:$cc)))],
1519               IIC_SSE_ALU_F32P_RR>, EVEX_4V, EVEX_K;
1520   let mayLoad = 1 in
1521   def rmik : AVX512AIi8<opc, MRMSrcMem,
1522               (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1, _.MemOp:$src2,
1523                                     AVX512ICC:$cc),
1524               !strconcat("vpcmp${cc}", Suffix,
1525                          "\t{$src2, $src1, $dst {${mask}}|",
1526                          "$dst {${mask}}, $src1, $src2}"),
1527               [(set _.KRC:$dst, (and _.KRCWM:$mask,
1528                                    (OpNode (_.VT _.RC:$src1),
1529                                       (_.VT (bitconvert (_.LdFrag addr:$src2))),
1530                                       imm:$cc)))],
1531               IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_K;
1532
1533   // Accept explicit immediate argument form instead of comparison code.
1534   let isAsmParserOnly = 1, hasSideEffects = 0 in {
1535     def rri_alt : AVX512AIi8<opc, MRMSrcReg,
1536                (outs _.KRC:$dst), (ins _.RC:$src1, _.RC:$src2, u8imm:$cc),
1537                !strconcat("vpcmp", Suffix, "\t{$cc, $src2, $src1, $dst|",
1538                           "$dst, $src1, $src2, $cc}"),
1539                [], IIC_SSE_ALU_F32P_RR>, EVEX_4V;
1540     let mayLoad = 1 in
1541     def rmi_alt : AVX512AIi8<opc, MRMSrcMem,
1542                (outs _.KRC:$dst), (ins _.RC:$src1, _.MemOp:$src2, u8imm:$cc),
1543                !strconcat("vpcmp", Suffix, "\t{$cc, $src2, $src1, $dst|",
1544                           "$dst, $src1, $src2, $cc}"),
1545                [], IIC_SSE_ALU_F32P_RM>, EVEX_4V;
1546     def rrik_alt : AVX512AIi8<opc, MRMSrcReg,
1547                (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1, _.RC:$src2,
1548                                        u8imm:$cc),
1549                !strconcat("vpcmp", Suffix,
1550                           "\t{$cc, $src2, $src1, $dst {${mask}}|",
1551                           "$dst {${mask}}, $src1, $src2, $cc}"),
1552                [], IIC_SSE_ALU_F32P_RR>, EVEX_4V, EVEX_K;
1553     let mayLoad = 1 in
1554     def rmik_alt : AVX512AIi8<opc, MRMSrcMem,
1555                (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1, _.MemOp:$src2,
1556                                        u8imm:$cc),
1557                !strconcat("vpcmp", Suffix,
1558                           "\t{$cc, $src2, $src1, $dst {${mask}}|",
1559                           "$dst {${mask}}, $src1, $src2, $cc}"),
1560                [], IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_K;
1561   }
1562 }
1563
1564 multiclass avx512_icmp_cc_rmb<bits<8> opc, string Suffix, SDNode OpNode,
1565                               X86VectorVTInfo _> :
1566            avx512_icmp_cc<opc, Suffix, OpNode, _> {
1567   def rmib : AVX512AIi8<opc, MRMSrcMem,
1568              (outs _.KRC:$dst), (ins _.RC:$src1, _.ScalarMemOp:$src2,
1569                                      AVX512ICC:$cc),
1570              !strconcat("vpcmp${cc}", Suffix,
1571                         "\t{${src2}", _.BroadcastStr, ", $src1, $dst|",
1572                         "$dst, $src1, ${src2}", _.BroadcastStr, "}"),
1573              [(set _.KRC:$dst, (OpNode (_.VT _.RC:$src1),
1574                                (X86VBroadcast (_.ScalarLdFrag addr:$src2)),
1575                                imm:$cc))],
1576              IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_B;
1577   def rmibk : AVX512AIi8<opc, MRMSrcMem,
1578               (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1,
1579                                        _.ScalarMemOp:$src2, AVX512ICC:$cc),
1580               !strconcat("vpcmp${cc}", Suffix,
1581                        "\t{${src2}", _.BroadcastStr, ", $src1, $dst {${mask}}|",
1582                        "$dst {${mask}}, $src1, ${src2}", _.BroadcastStr, "}"),
1583               [(set _.KRC:$dst, (and _.KRCWM:$mask,
1584                                   (OpNode (_.VT _.RC:$src1),
1585                                     (X86VBroadcast (_.ScalarLdFrag addr:$src2)),
1586                                     imm:$cc)))],
1587               IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_K, EVEX_B;
1588
1589   // Accept explicit immediate argument form instead of comparison code.
1590   let isAsmParserOnly = 1, hasSideEffects = 0, mayLoad = 1 in {
1591     def rmib_alt : AVX512AIi8<opc, MRMSrcMem,
1592                (outs _.KRC:$dst), (ins _.RC:$src1, _.ScalarMemOp:$src2,
1593                                        u8imm:$cc),
1594                !strconcat("vpcmp", Suffix,
1595                    "\t{$cc, ${src2}", _.BroadcastStr, ", $src1, $dst|",
1596                    "$dst, $src1, ${src2}", _.BroadcastStr, ", $cc}"),
1597                [], IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_B;
1598     def rmibk_alt : AVX512AIi8<opc, MRMSrcMem,
1599                (outs _.KRC:$dst), (ins _.KRCWM:$mask, _.RC:$src1,
1600                                        _.ScalarMemOp:$src2, u8imm:$cc),
1601                !strconcat("vpcmp", Suffix,
1602                   "\t{$cc, ${src2}", _.BroadcastStr, ", $src1, $dst {${mask}}|",
1603                   "$dst {${mask}}, $src1, ${src2}", _.BroadcastStr, ", $cc}"),
1604                [], IIC_SSE_ALU_F32P_RM>, EVEX_4V, EVEX_K, EVEX_B;
1605   }
1606 }
1607
1608 multiclass avx512_icmp_cc_vl<bits<8> opc, string Suffix, SDNode OpNode,
1609                              AVX512VLVectorVTInfo VTInfo, Predicate prd> {
1610   let Predicates = [prd] in
1611   defm Z : avx512_icmp_cc<opc, Suffix, OpNode, VTInfo.info512>, EVEX_V512;
1612
1613   let Predicates = [prd, HasVLX] in {
1614     defm Z256 : avx512_icmp_cc<opc, Suffix, OpNode, VTInfo.info256>, EVEX_V256;
1615     defm Z128 : avx512_icmp_cc<opc, Suffix, OpNode, VTInfo.info128>, EVEX_V128;
1616   }
1617 }
1618
1619 multiclass avx512_icmp_cc_rmb_vl<bits<8> opc, string Suffix, SDNode OpNode,
1620                                 AVX512VLVectorVTInfo VTInfo, Predicate prd> {
1621   let Predicates = [prd] in
1622   defm Z : avx512_icmp_cc_rmb<opc, Suffix, OpNode, VTInfo.info512>,
1623            EVEX_V512;
1624
1625   let Predicates = [prd, HasVLX] in {
1626     defm Z256 : avx512_icmp_cc_rmb<opc, Suffix, OpNode, VTInfo.info256>,
1627                 EVEX_V256;
1628     defm Z128 : avx512_icmp_cc_rmb<opc, Suffix, OpNode, VTInfo.info128>,
1629                 EVEX_V128;
1630   }
1631 }
1632
1633 defm VPCMPB : avx512_icmp_cc_vl<0x3F, "b", X86cmpm, avx512vl_i8_info,
1634                                 HasBWI>, EVEX_CD8<8, CD8VF>;
1635 defm VPCMPUB : avx512_icmp_cc_vl<0x3E, "ub", X86cmpmu, avx512vl_i8_info,
1636                                  HasBWI>, EVEX_CD8<8, CD8VF>;
1637
1638 defm VPCMPW : avx512_icmp_cc_vl<0x3F, "w", X86cmpm, avx512vl_i16_info,
1639                                 HasBWI>, VEX_W, EVEX_CD8<16, CD8VF>;
1640 defm VPCMPUW : avx512_icmp_cc_vl<0x3E, "uw", X86cmpmu, avx512vl_i16_info,
1641                                  HasBWI>, VEX_W, EVEX_CD8<16, CD8VF>;
1642
1643 defm VPCMPD : avx512_icmp_cc_rmb_vl<0x1F, "d", X86cmpm, avx512vl_i32_info,
1644                                     HasAVX512>, EVEX_CD8<32, CD8VF>;
1645 defm VPCMPUD : avx512_icmp_cc_rmb_vl<0x1E, "ud", X86cmpmu, avx512vl_i32_info,
1646                                      HasAVX512>, EVEX_CD8<32, CD8VF>;
1647
1648 defm VPCMPQ : avx512_icmp_cc_rmb_vl<0x1F, "q", X86cmpm, avx512vl_i64_info,
1649                                     HasAVX512>, VEX_W, EVEX_CD8<64, CD8VF>;
1650 defm VPCMPUQ : avx512_icmp_cc_rmb_vl<0x1E, "uq", X86cmpmu, avx512vl_i64_info,
1651                                      HasAVX512>, VEX_W, EVEX_CD8<64, CD8VF>;
1652
1653 multiclass avx512_vcmp_common<X86VectorVTInfo _> {
1654
1655   defm  rri  : AVX512_maskable_cmp<0xC2, MRMSrcReg, _,
1656                    (outs _.KRC:$dst), (ins _.RC:$src1, _.RC:$src2,AVXCC:$cc),
1657                    "vcmp${cc}"#_.Suffix,
1658                    "$src2, $src1", "$src1, $src2",
1659                    (X86cmpm (_.VT _.RC:$src1),
1660                          (_.VT _.RC:$src2),
1661                            imm:$cc)>;
1662
1663   let mayLoad = 1 in {
1664     defm  rmi  : AVX512_maskable_cmp<0xC2, MRMSrcMem, _,
1665                   (outs _.KRC:$dst),(ins _.RC:$src1, _.MemOp:$src2, AVXCC:$cc),
1666                   "vcmp${cc}"#_.Suffix,
1667                   "$src2, $src1", "$src1, $src2",
1668                   (X86cmpm (_.VT _.RC:$src1),
1669                           (_.VT (bitconvert (_.LdFrag addr:$src2))),
1670                           imm:$cc)>;
1671
1672     defm  rmbi : AVX512_maskable_cmp<0xC2, MRMSrcMem, _,
1673                   (outs _.KRC:$dst),
1674                   (ins _.RC:$src1, _.ScalarMemOp:$src2, AVXCC:$cc),
1675                   "vcmp${cc}"#_.Suffix,
1676                   "${src2}"##_.BroadcastStr##", $src1",
1677                   "$src1, ${src2}"##_.BroadcastStr,
1678                   (X86cmpm (_.VT _.RC:$src1),
1679                           (_.VT (X86VBroadcast(_.ScalarLdFrag addr:$src2))),
1680                           imm:$cc)>,EVEX_B;
1681   }
1682   // Accept explicit immediate argument form instead of comparison code.
1683   let isAsmParserOnly = 1, hasSideEffects = 0 in {
1684     defm  rri_alt : AVX512_maskable_cmp_alt<0xC2, MRMSrcReg, _,
1685                          (outs _.KRC:$dst),
1686                          (ins _.RC:$src1, _.RC:$src2, u8imm:$cc),
1687                          "vcmp"#_.Suffix,
1688                          "$cc, $src2, $src1", "$src1, $src2, $cc">;
1689
1690     let mayLoad = 1 in {
1691       defm rmi_alt : AVX512_maskable_cmp_alt<0xC2, MRMSrcMem, _,
1692                              (outs _.KRC:$dst),
1693                              (ins _.RC:$src1, _.MemOp:$src2, u8imm:$cc),
1694                              "vcmp"#_.Suffix,
1695                              "$cc, $src2, $src1", "$src1, $src2, $cc">;
1696
1697       defm  rmbi_alt : AVX512_maskable_cmp_alt<0xC2, MRMSrcMem, _,
1698                          (outs _.KRC:$dst),
1699                          (ins _.RC:$src1, _.ScalarMemOp:$src2, u8imm:$cc),
1700                          "vcmp"#_.Suffix,
1701                          "$cc, ${src2}"##_.BroadcastStr##", $src1",
1702                          "$src1, ${src2}"##_.BroadcastStr##", $cc">,EVEX_B;
1703     }
1704  }
1705 }
1706
1707 multiclass avx512_vcmp_sae<X86VectorVTInfo _> {
1708   // comparison code form (VCMP[EQ/LT/LE/...]
1709   defm  rrib  : AVX512_maskable_cmp<0xC2, MRMSrcReg, _,
1710                      (outs _.KRC:$dst),(ins _.RC:$src1, _.RC:$src2, AVXCC:$cc),
1711                      "vcmp${cc}"#_.Suffix,
1712                      "{sae}, $src2, $src1", "$src1, $src2,{sae}",
1713                      (X86cmpmRnd (_.VT _.RC:$src1),
1714                                     (_.VT _.RC:$src2),
1715                                     imm:$cc,
1716                                 (i32 FROUND_NO_EXC))>, EVEX_B;
1717
1718   let isAsmParserOnly = 1, hasSideEffects = 0 in {
1719     defm  rrib_alt  : AVX512_maskable_cmp_alt<0xC2, MRMSrcReg, _,
1720                          (outs _.KRC:$dst),
1721                          (ins _.RC:$src1, _.RC:$src2, u8imm:$cc),
1722                          "vcmp"#_.Suffix,
1723                          "$cc,{sae}, $src2, $src1",
1724                          "$src1, $src2,{sae}, $cc">, EVEX_B;
1725    }
1726 }
1727
1728 multiclass avx512_vcmp<AVX512VLVectorVTInfo _> {
1729   let Predicates = [HasAVX512] in {
1730     defm Z    : avx512_vcmp_common<_.info512>,
1731                 avx512_vcmp_sae<_.info512>, EVEX_V512;
1732
1733   }
1734   let Predicates = [HasAVX512,HasVLX] in {
1735    defm Z128 : avx512_vcmp_common<_.info128>, EVEX_V128;
1736    defm Z256 : avx512_vcmp_common<_.info256>, EVEX_V256;
1737   }
1738 }
1739
1740 defm VCMPPD : avx512_vcmp<avx512vl_f64_info>,
1741                           AVX512PDIi8Base, EVEX_4V, EVEX_CD8<64, CD8VF>, VEX_W;
1742 defm VCMPPS : avx512_vcmp<avx512vl_f32_info>,
1743                           AVX512PSIi8Base, EVEX_4V, EVEX_CD8<32, CD8VF>;
1744
1745 def : Pat<(v8i1 (X86cmpm (v8f32 VR256X:$src1), (v8f32 VR256X:$src2), imm:$cc)),
1746           (COPY_TO_REGCLASS (VCMPPSZrri
1747             (v16f32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)),
1748             (v16f32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm)),
1749             imm:$cc), VK8)>;
1750 def : Pat<(v8i1 (X86cmpm (v8i32 VR256X:$src1), (v8i32 VR256X:$src2), imm:$cc)),
1751           (COPY_TO_REGCLASS (VPCMPDZrri
1752             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)),
1753             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm)),
1754             imm:$cc), VK8)>;
1755 def : Pat<(v8i1 (X86cmpmu (v8i32 VR256X:$src1), (v8i32 VR256X:$src2), imm:$cc)),
1756           (COPY_TO_REGCLASS (VPCMPUDZrri
1757             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)),
1758             (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src2, sub_ymm)),
1759             imm:$cc), VK8)>;
1760
1761 //-----------------------------------------------------------------
1762 // Mask register copy, including
1763 // - copy between mask registers
1764 // - load/store mask registers
1765 // - copy from GPR to mask register and vice versa
1766 //
1767 multiclass avx512_mask_mov<bits<8> opc_kk, bits<8> opc_km, bits<8> opc_mk,
1768                          string OpcodeStr, RegisterClass KRC,
1769                          ValueType vvt, X86MemOperand x86memop> {
1770   let hasSideEffects = 0 in {
1771     def kk : I<opc_kk, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src),
1772                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
1773     let mayLoad = 1 in
1774     def km : I<opc_km, MRMSrcMem, (outs KRC:$dst), (ins x86memop:$src),
1775                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
1776                [(set KRC:$dst, (vvt (load addr:$src)))]>;
1777     let mayStore = 1 in
1778     def mk : I<opc_mk, MRMDestMem, (outs), (ins x86memop:$dst, KRC:$src),
1779                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
1780                [(store KRC:$src, addr:$dst)]>;
1781   }
1782 }
1783
1784 multiclass avx512_mask_mov_gpr<bits<8> opc_kr, bits<8> opc_rk,
1785                              string OpcodeStr,
1786                              RegisterClass KRC, RegisterClass GRC> {
1787   let hasSideEffects = 0 in {
1788     def kr : I<opc_kr, MRMSrcReg, (outs KRC:$dst), (ins GRC:$src),
1789                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
1790     def rk : I<opc_rk, MRMSrcReg, (outs GRC:$dst), (ins KRC:$src),
1791                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), []>;
1792   }
1793 }
1794
1795 let Predicates = [HasDQI] in
1796   defm KMOVB : avx512_mask_mov<0x90, 0x90, 0x91, "kmovb", VK8, v8i1, i8mem>,
1797                avx512_mask_mov_gpr<0x92, 0x93, "kmovb", VK8, GR32>,
1798                VEX, PD;
1799
1800 let Predicates = [HasAVX512] in
1801   defm KMOVW : avx512_mask_mov<0x90, 0x90, 0x91, "kmovw", VK16, v16i1, i16mem>,
1802                avx512_mask_mov_gpr<0x92, 0x93, "kmovw", VK16, GR32>,
1803                VEX, PS;
1804
1805 let Predicates = [HasBWI] in {
1806   defm KMOVD : avx512_mask_mov<0x90, 0x90, 0x91, "kmovd", VK32, v32i1,i32mem>,
1807                VEX, PD, VEX_W;
1808   defm KMOVD : avx512_mask_mov_gpr<0x92, 0x93, "kmovd", VK32, GR32>,
1809                VEX, XD;
1810 }
1811
1812 let Predicates = [HasBWI] in {
1813   defm KMOVQ : avx512_mask_mov<0x90, 0x90, 0x91, "kmovq", VK64, v64i1, i64mem>,
1814                VEX, PS, VEX_W;
1815   defm KMOVQ : avx512_mask_mov_gpr<0x92, 0x93, "kmovq", VK64, GR64>,
1816                VEX, XD, VEX_W;
1817 }
1818
1819 // GR from/to mask register
1820 let Predicates = [HasDQI] in {
1821   def : Pat<(v8i1 (bitconvert (i8 GR8:$src))),
1822             (KMOVBkr (SUBREG_TO_REG (i32 0), GR8:$src, sub_8bit))>;
1823   def : Pat<(i8 (bitconvert (v8i1 VK8:$src))),
1824             (EXTRACT_SUBREG (KMOVBrk VK8:$src), sub_8bit)>;
1825 }
1826 let Predicates = [HasAVX512] in {
1827   def : Pat<(v16i1 (bitconvert (i16 GR16:$src))),
1828             (KMOVWkr (SUBREG_TO_REG (i32 0), GR16:$src, sub_16bit))>;
1829   def : Pat<(i16 (bitconvert (v16i1 VK16:$src))),
1830             (EXTRACT_SUBREG (KMOVWrk VK16:$src), sub_16bit)>;
1831 }
1832 let Predicates = [HasBWI] in {
1833   def : Pat<(v32i1 (bitconvert (i32 GR32:$src))), (KMOVDkr GR32:$src)>;
1834   def : Pat<(i32 (bitconvert (v32i1 VK32:$src))), (KMOVDrk VK32:$src)>;
1835 }
1836 let Predicates = [HasBWI] in {
1837   def : Pat<(v64i1 (bitconvert (i64 GR64:$src))), (KMOVQkr GR64:$src)>;
1838   def : Pat<(i64 (bitconvert (v64i1 VK64:$src))), (KMOVQrk VK64:$src)>;
1839 }
1840
1841 // Load/store kreg
1842 let Predicates = [HasDQI] in {
1843   def : Pat<(store (i8 (bitconvert (v8i1 VK8:$src))), addr:$dst),
1844             (KMOVBmk addr:$dst, VK8:$src)>;
1845   def : Pat<(v8i1 (bitconvert (i8 (load addr:$src)))),
1846             (KMOVBkm addr:$src)>;
1847 }
1848 let Predicates = [HasAVX512, NoDQI] in {
1849   def : Pat<(store (i8 (bitconvert (v8i1 VK8:$src))), addr:$dst),
1850             (KMOVWmk addr:$dst, (COPY_TO_REGCLASS VK8:$src, VK16))>;
1851   def : Pat<(v8i1 (bitconvert (i8 (load addr:$src)))),
1852             (COPY_TO_REGCLASS (KMOVWkm addr:$src), VK8)>;
1853 }
1854 let Predicates = [HasAVX512] in {
1855   def : Pat<(store (i16 (bitconvert (v16i1 VK16:$src))), addr:$dst),
1856             (KMOVWmk addr:$dst, VK16:$src)>;
1857   def : Pat<(i1 (load addr:$src)),
1858             (COPY_TO_REGCLASS (AND16ri (i16 (SUBREG_TO_REG (i32 0),
1859                                               (MOV8rm addr:$src), sub_8bit)),
1860                                 (i16 1)), VK1)>;
1861   def : Pat<(v16i1 (bitconvert (i16 (load addr:$src)))),
1862             (KMOVWkm addr:$src)>;
1863 }
1864 let Predicates = [HasBWI] in {
1865   def : Pat<(store (i32 (bitconvert (v32i1 VK32:$src))), addr:$dst),
1866             (KMOVDmk addr:$dst, VK32:$src)>;
1867   def : Pat<(v32i1 (bitconvert (i32 (load addr:$src)))),
1868             (KMOVDkm addr:$src)>;
1869 }
1870 let Predicates = [HasBWI] in {
1871   def : Pat<(store (i64 (bitconvert (v64i1 VK64:$src))), addr:$dst),
1872             (KMOVQmk addr:$dst, VK64:$src)>;
1873   def : Pat<(v64i1 (bitconvert (i64 (load addr:$src)))),
1874             (KMOVQkm addr:$src)>;
1875 }
1876
1877 let Predicates = [HasAVX512] in {
1878   def : Pat<(i1 (trunc (i64 GR64:$src))),
1879             (COPY_TO_REGCLASS (KMOVWkr (AND32ri (EXTRACT_SUBREG $src, sub_32bit),
1880                                         (i32 1))), VK1)>;
1881
1882   def : Pat<(i1 (trunc (i32 GR32:$src))),
1883             (COPY_TO_REGCLASS (KMOVWkr (AND32ri $src, (i32 1))), VK1)>;
1884
1885   def : Pat<(i1 (trunc (i8 GR8:$src))),
1886        (COPY_TO_REGCLASS
1887         (KMOVWkr (AND32ri (SUBREG_TO_REG (i32 0), GR8:$src, sub_8bit), (i32 1))),
1888        VK1)>;
1889   def : Pat<(i1 (trunc (i16 GR16:$src))),
1890        (COPY_TO_REGCLASS
1891         (KMOVWkr (AND32ri (SUBREG_TO_REG (i32 0), $src, sub_16bit), (i32 1))),
1892        VK1)>;
1893
1894   def : Pat<(i32 (zext VK1:$src)),
1895             (AND32ri (KMOVWrk (COPY_TO_REGCLASS VK1:$src, VK16)), (i32 1))>;
1896   def : Pat<(i32 (anyext VK1:$src)),
1897             (KMOVWrk (COPY_TO_REGCLASS VK1:$src, VK16))>;
1898   def : Pat<(i8 (zext VK1:$src)),
1899             (EXTRACT_SUBREG
1900              (AND32ri (KMOVWrk
1901                        (COPY_TO_REGCLASS VK1:$src, VK16)), (i32 1)), sub_8bit)>;
1902   def : Pat<(i64 (zext VK1:$src)),
1903             (AND64ri8 (SUBREG_TO_REG (i64 0),
1904              (KMOVWrk (COPY_TO_REGCLASS VK1:$src, VK16)), sub_32bit), (i64 1))>;
1905   def : Pat<(i16 (zext VK1:$src)),
1906             (EXTRACT_SUBREG
1907              (AND32ri (KMOVWrk (COPY_TO_REGCLASS VK1:$src, VK16)), (i32 1)),
1908               sub_16bit)>;
1909   def : Pat<(v16i1 (scalar_to_vector VK1:$src)),
1910             (COPY_TO_REGCLASS VK1:$src, VK16)>;
1911   def : Pat<(v8i1 (scalar_to_vector VK1:$src)),
1912             (COPY_TO_REGCLASS VK1:$src, VK8)>;
1913 }
1914 let Predicates = [HasBWI] in {
1915   def : Pat<(v32i1 (scalar_to_vector VK1:$src)),
1916             (COPY_TO_REGCLASS VK1:$src, VK32)>;
1917   def : Pat<(v64i1 (scalar_to_vector VK1:$src)),
1918             (COPY_TO_REGCLASS VK1:$src, VK64)>;
1919 }
1920
1921
1922 // With AVX-512 only, 8-bit mask is promoted to 16-bit mask.
1923 let Predicates = [HasAVX512, NoDQI] in {
1924   // GR from/to 8-bit mask without native support
1925   def : Pat<(v8i1 (bitconvert (i8 GR8:$src))),
1926             (COPY_TO_REGCLASS
1927              (KMOVWkr (MOVZX32rr8 GR8 :$src)), VK8)>;
1928   def : Pat<(i8 (bitconvert (v8i1 VK8:$src))),
1929             (EXTRACT_SUBREG
1930               (KMOVWrk (COPY_TO_REGCLASS VK8:$src, VK16)),
1931               sub_8bit)>;
1932 }
1933
1934 let Predicates = [HasAVX512] in {
1935   def : Pat<(i1 (X86Vextract VK16:$src, (iPTR 0))),
1936             (COPY_TO_REGCLASS VK16:$src, VK1)>;
1937   def : Pat<(i1 (X86Vextract VK8:$src, (iPTR 0))),
1938             (COPY_TO_REGCLASS VK8:$src, VK1)>;
1939 }
1940 let Predicates = [HasBWI] in {
1941   def : Pat<(i1 (X86Vextract VK32:$src, (iPTR 0))),
1942             (COPY_TO_REGCLASS VK32:$src, VK1)>;
1943   def : Pat<(i1 (X86Vextract VK64:$src, (iPTR 0))),
1944             (COPY_TO_REGCLASS VK64:$src, VK1)>;
1945 }
1946
1947 // Mask unary operation
1948 // - KNOT
1949 multiclass avx512_mask_unop<bits<8> opc, string OpcodeStr,
1950                             RegisterClass KRC, SDPatternOperator OpNode,
1951                             Predicate prd> {
1952   let Predicates = [prd] in
1953     def rr : I<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src),
1954                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
1955                [(set KRC:$dst, (OpNode KRC:$src))]>;
1956 }
1957
1958 multiclass avx512_mask_unop_all<bits<8> opc, string OpcodeStr,
1959                                 SDPatternOperator OpNode> {
1960   defm B : avx512_mask_unop<opc, !strconcat(OpcodeStr, "b"), VK8, OpNode,
1961                             HasDQI>, VEX, PD;
1962   defm W : avx512_mask_unop<opc, !strconcat(OpcodeStr, "w"), VK16, OpNode,
1963                             HasAVX512>, VEX, PS;
1964   defm D : avx512_mask_unop<opc, !strconcat(OpcodeStr, "d"), VK32, OpNode,
1965                             HasBWI>, VEX, PD, VEX_W;
1966   defm Q : avx512_mask_unop<opc, !strconcat(OpcodeStr, "q"), VK64, OpNode,
1967                             HasBWI>, VEX, PS, VEX_W;
1968 }
1969
1970 defm KNOT : avx512_mask_unop_all<0x44, "knot", not>;
1971
1972 multiclass avx512_mask_unop_int<string IntName, string InstName> {
1973   let Predicates = [HasAVX512] in
1974     def : Pat<(!cast<Intrinsic>("int_x86_avx512_"##IntName##"_w")
1975                 (i16 GR16:$src)),
1976               (COPY_TO_REGCLASS (!cast<Instruction>(InstName##"Wrr")
1977               (v16i1 (COPY_TO_REGCLASS GR16:$src, VK16))), GR16)>;
1978 }
1979 defm : avx512_mask_unop_int<"knot", "KNOT">;
1980
1981 let Predicates = [HasDQI] in
1982 def : Pat<(xor VK8:$src1, (v8i1 immAllOnesV)), (KNOTBrr VK8:$src1)>;
1983 let Predicates = [HasAVX512] in
1984 def : Pat<(xor VK16:$src1, (v16i1 immAllOnesV)), (KNOTWrr VK16:$src1)>;
1985 let Predicates = [HasBWI] in
1986 def : Pat<(xor VK32:$src1, (v32i1 immAllOnesV)), (KNOTDrr VK32:$src1)>;
1987 let Predicates = [HasBWI] in
1988 def : Pat<(xor VK64:$src1, (v64i1 immAllOnesV)), (KNOTQrr VK64:$src1)>;
1989
1990 // KNL does not support KMOVB, 8-bit mask is promoted to 16-bit
1991 let Predicates = [HasAVX512, NoDQI] in {
1992 def : Pat<(xor VK8:$src1,  (v8i1 immAllOnesV)),
1993           (COPY_TO_REGCLASS (KNOTWrr (COPY_TO_REGCLASS VK8:$src1, VK16)), VK8)>;
1994 def : Pat<(not VK8:$src),
1995           (COPY_TO_REGCLASS
1996             (KNOTWrr (COPY_TO_REGCLASS VK8:$src, VK16)), VK8)>;
1997 }
1998 def : Pat<(xor VK4:$src1,  (v4i1 immAllOnesV)),
1999           (COPY_TO_REGCLASS (KNOTWrr (COPY_TO_REGCLASS VK4:$src1, VK16)), VK4)>;
2000 def : Pat<(xor VK2:$src1,  (v2i1 immAllOnesV)),
2001           (COPY_TO_REGCLASS (KNOTWrr (COPY_TO_REGCLASS VK2:$src1, VK16)), VK2)>;
2002
2003 // Mask binary operation
2004 // - KAND, KANDN, KOR, KXNOR, KXOR
2005 multiclass avx512_mask_binop<bits<8> opc, string OpcodeStr,
2006                            RegisterClass KRC, SDPatternOperator OpNode,
2007                            Predicate prd, bit IsCommutable> {
2008   let Predicates = [prd], isCommutable = IsCommutable in
2009     def rr : I<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src1, KRC:$src2),
2010                !strconcat(OpcodeStr,
2011                           "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
2012                [(set KRC:$dst, (OpNode KRC:$src1, KRC:$src2))]>;
2013 }
2014
2015 multiclass avx512_mask_binop_all<bits<8> opc, string OpcodeStr,
2016                                SDPatternOperator OpNode, bit IsCommutable> {
2017   defm B : avx512_mask_binop<opc, !strconcat(OpcodeStr, "b"), VK8, OpNode,
2018                              HasDQI, IsCommutable>, VEX_4V, VEX_L, PD;
2019   defm W : avx512_mask_binop<opc, !strconcat(OpcodeStr, "w"), VK16, OpNode,
2020                              HasAVX512, IsCommutable>, VEX_4V, VEX_L, PS;
2021   defm D : avx512_mask_binop<opc, !strconcat(OpcodeStr, "d"), VK32, OpNode,
2022                              HasBWI, IsCommutable>, VEX_4V, VEX_L, VEX_W, PD;
2023   defm Q : avx512_mask_binop<opc, !strconcat(OpcodeStr, "q"), VK64, OpNode,
2024                              HasBWI, IsCommutable>, VEX_4V, VEX_L, VEX_W, PS;
2025 }
2026
2027 def andn : PatFrag<(ops node:$i0, node:$i1), (and (not node:$i0), node:$i1)>;
2028 def xnor : PatFrag<(ops node:$i0, node:$i1), (not (xor node:$i0, node:$i1))>;
2029
2030 defm KAND  : avx512_mask_binop_all<0x41, "kand",  and,  1>;
2031 defm KOR   : avx512_mask_binop_all<0x45, "kor",   or,   1>;
2032 defm KXNOR : avx512_mask_binop_all<0x46, "kxnor", xnor, 1>;
2033 defm KXOR  : avx512_mask_binop_all<0x47, "kxor",  xor,  1>;
2034 defm KANDN : avx512_mask_binop_all<0x42, "kandn", andn, 0>;
2035
2036 multiclass avx512_mask_binop_int<string IntName, string InstName> {
2037   let Predicates = [HasAVX512] in
2038     def : Pat<(!cast<Intrinsic>("int_x86_avx512_"##IntName##"_w")
2039                 (i16 GR16:$src1), (i16 GR16:$src2)),
2040               (COPY_TO_REGCLASS (!cast<Instruction>(InstName##"Wrr")
2041               (v16i1 (COPY_TO_REGCLASS GR16:$src1, VK16)),
2042               (v16i1 (COPY_TO_REGCLASS GR16:$src2, VK16))), GR16)>;
2043 }
2044
2045 defm : avx512_mask_binop_int<"kand",  "KAND">;
2046 defm : avx512_mask_binop_int<"kandn", "KANDN">;
2047 defm : avx512_mask_binop_int<"kor",   "KOR">;
2048 defm : avx512_mask_binop_int<"kxnor", "KXNOR">;
2049 defm : avx512_mask_binop_int<"kxor",  "KXOR">;
2050
2051 multiclass avx512_binop_pat<SDPatternOperator OpNode, Instruction Inst> {
2052   // With AVX512F, 8-bit mask is promoted to 16-bit mask,
2053   // for the DQI set, this type is legal and KxxxB instruction is used
2054   let Predicates = [NoDQI] in
2055   def : Pat<(OpNode VK8:$src1, VK8:$src2),
2056             (COPY_TO_REGCLASS
2057               (Inst (COPY_TO_REGCLASS VK8:$src1, VK16),
2058                     (COPY_TO_REGCLASS VK8:$src2, VK16)), VK8)>;
2059
2060   // All types smaller than 8 bits require conversion anyway
2061   def : Pat<(OpNode VK1:$src1, VK1:$src2),
2062         (COPY_TO_REGCLASS (Inst
2063                            (COPY_TO_REGCLASS VK1:$src1, VK16),
2064                            (COPY_TO_REGCLASS VK1:$src2, VK16)), VK1)>;
2065   def : Pat<(OpNode VK2:$src1, VK2:$src2),
2066         (COPY_TO_REGCLASS (Inst
2067                            (COPY_TO_REGCLASS VK2:$src1, VK16),
2068                            (COPY_TO_REGCLASS VK2:$src2, VK16)), VK1)>;
2069   def : Pat<(OpNode VK4:$src1, VK4:$src2),
2070         (COPY_TO_REGCLASS (Inst
2071                            (COPY_TO_REGCLASS VK4:$src1, VK16),
2072                            (COPY_TO_REGCLASS VK4:$src2, VK16)), VK1)>;
2073 }
2074
2075 defm : avx512_binop_pat<and,  KANDWrr>;
2076 defm : avx512_binop_pat<andn, KANDNWrr>;
2077 defm : avx512_binop_pat<or,   KORWrr>;
2078 defm : avx512_binop_pat<xnor, KXNORWrr>;
2079 defm : avx512_binop_pat<xor,  KXORWrr>;
2080
2081 def : Pat<(xor (xor VK16:$src1, VK16:$src2), (v16i1 immAllOnesV)),
2082           (KXNORWrr VK16:$src1, VK16:$src2)>;
2083 def : Pat<(xor (xor VK8:$src1, VK8:$src2), (v8i1 immAllOnesV)),
2084           (KXNORBrr VK8:$src1, VK8:$src2)>;
2085 def : Pat<(xor (xor VK32:$src1, VK32:$src2), (v32i1 immAllOnesV)),
2086           (KXNORDrr VK32:$src1, VK32:$src2)>;
2087 def : Pat<(xor (xor VK64:$src1, VK64:$src2), (v64i1 immAllOnesV)),
2088           (KXNORQrr VK64:$src1, VK64:$src2)>;
2089
2090 let Predicates = [NoDQI] in
2091 def : Pat<(xor (xor VK8:$src1, VK8:$src2), (v8i1 immAllOnesV)),
2092           (COPY_TO_REGCLASS (KXNORWrr (COPY_TO_REGCLASS VK8:$src1, VK16),
2093                              (COPY_TO_REGCLASS VK8:$src2, VK16)), VK8)>;
2094
2095 def : Pat<(xor (xor VK4:$src1, VK4:$src2), (v4i1 immAllOnesV)),
2096           (COPY_TO_REGCLASS (KXNORWrr (COPY_TO_REGCLASS VK4:$src1, VK16),
2097                              (COPY_TO_REGCLASS VK4:$src2, VK16)), VK4)>;
2098
2099 def : Pat<(xor (xor VK2:$src1, VK2:$src2), (v2i1 immAllOnesV)),
2100           (COPY_TO_REGCLASS (KXNORWrr (COPY_TO_REGCLASS VK2:$src1, VK16),
2101                              (COPY_TO_REGCLASS VK2:$src2, VK16)), VK2)>;
2102
2103 def : Pat<(xor (xor VK1:$src1, VK1:$src2), (i1 1)),
2104           (COPY_TO_REGCLASS (KXNORWrr (COPY_TO_REGCLASS VK1:$src1, VK16),
2105                              (COPY_TO_REGCLASS VK1:$src2, VK16)), VK1)>;
2106
2107 // Mask unpacking
2108 multiclass avx512_mask_unpck<bits<8> opc, string OpcodeStr,
2109                            RegisterClass KRC> {
2110   let Predicates = [HasAVX512] in
2111     def rr : I<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src1, KRC:$src2),
2112                !strconcat(OpcodeStr,
2113                           "\t{$src2, $src1, $dst|$dst, $src1, $src2}"), []>;
2114 }
2115
2116 multiclass avx512_mask_unpck_bw<bits<8> opc, string OpcodeStr> {
2117   defm BW : avx512_mask_unpck<opc, !strconcat(OpcodeStr, "bw"), VK16>,
2118                             VEX_4V, VEX_L, PD;
2119 }
2120
2121 defm KUNPCK : avx512_mask_unpck_bw<0x4b, "kunpck">;
2122 def : Pat<(v16i1 (concat_vectors (v8i1 VK8:$src1), (v8i1 VK8:$src2))),
2123           (KUNPCKBWrr (COPY_TO_REGCLASS VK8:$src2, VK16),
2124                   (COPY_TO_REGCLASS VK8:$src1, VK16))>;
2125
2126
2127 multiclass avx512_mask_unpck_int<string IntName, string InstName> {
2128   let Predicates = [HasAVX512] in
2129     def : Pat<(!cast<Intrinsic>("int_x86_avx512_"##IntName##"_bw")
2130                 (i16 GR16:$src1), (i16 GR16:$src2)),
2131               (COPY_TO_REGCLASS (!cast<Instruction>(InstName##"BWrr")
2132               (v16i1 (COPY_TO_REGCLASS GR16:$src1, VK16)),
2133               (v16i1 (COPY_TO_REGCLASS GR16:$src2, VK16))), GR16)>;
2134 }
2135 defm : avx512_mask_unpck_int<"kunpck",  "KUNPCK">;
2136
2137 // Mask bit testing
2138 multiclass avx512_mask_testop<bits<8> opc, string OpcodeStr, RegisterClass KRC,
2139                             SDNode OpNode> {
2140   let Predicates = [HasAVX512], Defs = [EFLAGS] in
2141     def rr : I<opc, MRMSrcReg, (outs), (ins KRC:$src1, KRC:$src2),
2142                !strconcat(OpcodeStr, "\t{$src2, $src1|$src1, $src2}"),
2143                [(set EFLAGS, (OpNode KRC:$src1, KRC:$src2))]>;
2144 }
2145
2146 multiclass avx512_mask_testop_w<bits<8> opc, string OpcodeStr, SDNode OpNode> {
2147   defm W : avx512_mask_testop<opc, !strconcat(OpcodeStr, "w"), VK16, OpNode>,
2148                             VEX, PS;
2149   let Predicates = [HasDQI] in
2150   defm B : avx512_mask_testop<opc, !strconcat(OpcodeStr, "b"), VK8, OpNode>,
2151                             VEX, PD;
2152   let Predicates = [HasBWI] in {
2153   defm Q : avx512_mask_testop<opc, !strconcat(OpcodeStr, "q"), VK64, OpNode>,
2154                             VEX, PS, VEX_W;
2155   defm D : avx512_mask_testop<opc, !strconcat(OpcodeStr, "d"), VK32, OpNode>,
2156                             VEX, PD, VEX_W;
2157   }
2158 }
2159
2160 defm KORTEST : avx512_mask_testop_w<0x98, "kortest", X86kortest>;
2161
2162 // Mask shift
2163 multiclass avx512_mask_shiftop<bits<8> opc, string OpcodeStr, RegisterClass KRC,
2164                              SDNode OpNode> {
2165   let Predicates = [HasAVX512] in
2166     def ri : Ii8<opc, MRMSrcReg, (outs KRC:$dst), (ins KRC:$src, u8imm:$imm),
2167                  !strconcat(OpcodeStr,
2168                             "\t{$imm, $src, $dst|$dst, $src, $imm}"),
2169                             [(set KRC:$dst, (OpNode KRC:$src, (i8 imm:$imm)))]>;
2170 }
2171
2172 multiclass avx512_mask_shiftop_w<bits<8> opc1, bits<8> opc2, string OpcodeStr,
2173                                SDNode OpNode> {
2174   defm W : avx512_mask_shiftop<opc1, !strconcat(OpcodeStr, "w"), VK16, OpNode>,
2175                                VEX, TAPD, VEX_W;
2176   let Predicates = [HasDQI] in
2177   defm B : avx512_mask_shiftop<opc1, !strconcat(OpcodeStr, "b"), VK8, OpNode>,
2178                                VEX, TAPD;
2179   let Predicates = [HasBWI] in {
2180   defm Q : avx512_mask_shiftop<opc2, !strconcat(OpcodeStr, "q"), VK64, OpNode>,
2181                                VEX, TAPD, VEX_W;
2182   let Predicates = [HasDQI] in
2183   defm D : avx512_mask_shiftop<opc2, !strconcat(OpcodeStr, "d"), VK32, OpNode>,
2184                                VEX, TAPD;
2185   }  
2186 }
2187
2188 defm KSHIFTL : avx512_mask_shiftop_w<0x32, 0x33, "kshiftl", X86vshli>;
2189 defm KSHIFTR : avx512_mask_shiftop_w<0x30, 0x31, "kshiftr", X86vsrli>;
2190
2191 // Mask setting all 0s or 1s
2192 multiclass avx512_mask_setop<RegisterClass KRC, ValueType VT, PatFrag Val> {
2193   let Predicates = [HasAVX512] in
2194     let isReMaterializable = 1, isAsCheapAsAMove = 1, isPseudo = 1 in
2195       def #NAME# : I<0, Pseudo, (outs KRC:$dst), (ins), "",
2196                      [(set KRC:$dst, (VT Val))]>;
2197 }
2198
2199 multiclass avx512_mask_setop_w<PatFrag Val> {
2200   defm B : avx512_mask_setop<VK8,   v8i1, Val>;
2201   defm W : avx512_mask_setop<VK16, v16i1, Val>;
2202   defm D : avx512_mask_setop<VK32,  v32i1, Val>;
2203   defm Q : avx512_mask_setop<VK64, v64i1, Val>;
2204 }
2205
2206 defm KSET0 : avx512_mask_setop_w<immAllZerosV>;
2207 defm KSET1 : avx512_mask_setop_w<immAllOnesV>;
2208
2209 // With AVX-512 only, 8-bit mask is promoted to 16-bit mask.
2210 let Predicates = [HasAVX512] in {
2211   def : Pat<(v8i1 immAllZerosV), (COPY_TO_REGCLASS (KSET0W), VK8)>;
2212   def : Pat<(v8i1 immAllOnesV),  (COPY_TO_REGCLASS (KSET1W), VK8)>;
2213   def : Pat<(v4i1 immAllOnesV),  (COPY_TO_REGCLASS (KSET1W), VK4)>;
2214   def : Pat<(v2i1 immAllOnesV),  (COPY_TO_REGCLASS (KSET1W), VK2)>;
2215   def : Pat<(i1 0), (COPY_TO_REGCLASS (KSET0W), VK1)>;
2216   def : Pat<(i1 1), (COPY_TO_REGCLASS (KSHIFTRWri (KSET1W), (i8 15)), VK1)>;
2217   def : Pat<(i1 -1), (COPY_TO_REGCLASS (KSHIFTRWri (KSET1W), (i8 15)), VK1)>;
2218 }
2219 def : Pat<(v8i1 (extract_subvector (v16i1 VK16:$src), (iPTR 0))),
2220           (v8i1 (COPY_TO_REGCLASS VK16:$src, VK8))>;
2221
2222 def : Pat<(v16i1 (insert_subvector undef, (v8i1 VK8:$src), (iPTR 0))),
2223           (v16i1 (COPY_TO_REGCLASS VK8:$src, VK16))>;
2224
2225 def : Pat<(v8i1 (extract_subvector (v16i1 VK16:$src), (iPTR 8))),
2226           (v8i1 (COPY_TO_REGCLASS (KSHIFTRWri VK16:$src, (i8 8)), VK8))>;
2227
2228 def : Pat<(v32i1 (extract_subvector (v64i1 VK64:$src), (iPTR 0))),
2229           (v32i1 (COPY_TO_REGCLASS VK64:$src, VK32))>;
2230
2231 def : Pat<(v32i1 (extract_subvector (v64i1 VK64:$src), (iPTR 32))),
2232           (v32i1 (COPY_TO_REGCLASS (KSHIFTRQri VK64:$src, (i8 32)), VK32))>;
2233
2234 let Predicates = [HasVLX] in {
2235   def : Pat<(v8i1 (insert_subvector undef, (v4i1 VK4:$src), (iPTR 0))),
2236             (v8i1 (COPY_TO_REGCLASS VK4:$src, VK8))>;
2237   def : Pat<(v8i1 (insert_subvector undef, (v2i1 VK2:$src), (iPTR 0))),
2238             (v8i1 (COPY_TO_REGCLASS VK2:$src, VK8))>;
2239   def : Pat<(v4i1 (insert_subvector undef, (v2i1 VK2:$src), (iPTR 0))),
2240             (v4i1 (COPY_TO_REGCLASS VK2:$src, VK4))>;
2241   def : Pat<(v4i1 (extract_subvector (v8i1 VK8:$src), (iPTR 0))),
2242             (v4i1 (COPY_TO_REGCLASS VK8:$src, VK4))>;
2243   def : Pat<(v2i1 (extract_subvector (v8i1 VK8:$src), (iPTR 0))),
2244             (v2i1 (COPY_TO_REGCLASS VK8:$src, VK2))>;
2245 }
2246
2247 def : Pat<(v8i1 (X86vshli VK8:$src, (i8 imm:$imm))),
2248           (v8i1 (COPY_TO_REGCLASS
2249                  (KSHIFTLWri (COPY_TO_REGCLASS VK8:$src, VK16),
2250                   (I8Imm $imm)), VK8))>, Requires<[HasAVX512, NoDQI]>;
2251
2252 def : Pat<(v8i1 (X86vsrli VK8:$src, (i8 imm:$imm))),
2253           (v8i1 (COPY_TO_REGCLASS
2254                  (KSHIFTRWri (COPY_TO_REGCLASS VK8:$src, VK16),
2255                   (I8Imm $imm)), VK8))>, Requires<[HasAVX512, NoDQI]>;
2256
2257 def : Pat<(v4i1 (X86vshli VK4:$src, (i8 imm:$imm))),
2258           (v4i1 (COPY_TO_REGCLASS
2259                  (KSHIFTLWri (COPY_TO_REGCLASS VK4:$src, VK16),
2260                   (I8Imm $imm)), VK4))>, Requires<[HasAVX512]>;
2261
2262 def : Pat<(v4i1 (X86vsrli VK4:$src, (i8 imm:$imm))),
2263           (v4i1 (COPY_TO_REGCLASS
2264                  (KSHIFTRWri (COPY_TO_REGCLASS VK4:$src, VK16),
2265                   (I8Imm $imm)), VK4))>, Requires<[HasAVX512]>;
2266
2267 //===----------------------------------------------------------------------===//
2268 // AVX-512 - Aligned and unaligned load and store
2269 //
2270
2271
2272 multiclass avx512_load<bits<8> opc, string OpcodeStr, X86VectorVTInfo _,
2273                          PatFrag ld_frag, PatFrag mload,
2274                          bit IsReMaterializable = 1> {
2275   let hasSideEffects = 0 in {
2276   def rr : AVX512PI<opc, MRMSrcReg, (outs _.RC:$dst), (ins _.RC:$src),
2277                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"), [],
2278                     _.ExeDomain>, EVEX;
2279   def rrkz : AVX512PI<opc, MRMSrcReg, (outs _.RC:$dst),
2280                       (ins _.KRCWM:$mask,  _.RC:$src),
2281                       !strconcat(OpcodeStr, "\t{$src, ${dst} {${mask}} {z}|",
2282                        "${dst} {${mask}} {z}, $src}"), [], _.ExeDomain>,
2283                        EVEX, EVEX_KZ;
2284
2285   let canFoldAsLoad = 1, isReMaterializable = IsReMaterializable,
2286       SchedRW = [WriteLoad] in
2287   def rm : AVX512PI<opc, MRMSrcMem, (outs _.RC:$dst), (ins _.MemOp:$src),
2288                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
2289                     [(set _.RC:$dst, (_.VT (bitconvert (ld_frag addr:$src))))],
2290                     _.ExeDomain>, EVEX;
2291
2292   let Constraints = "$src0 = $dst" in {
2293   def rrk : AVX512PI<opc, MRMSrcReg, (outs _.RC:$dst),
2294                     (ins _.RC:$src0, _.KRCWM:$mask, _.RC:$src1),
2295                     !strconcat(OpcodeStr, "\t{$src1, ${dst} {${mask}}|",
2296                     "${dst} {${mask}}, $src1}"),
2297                     [(set _.RC:$dst, (_.VT (vselect _.KRCWM:$mask,
2298                                         (_.VT _.RC:$src1),
2299                                         (_.VT _.RC:$src0))))], _.ExeDomain>,
2300                      EVEX, EVEX_K;
2301   let mayLoad = 1, SchedRW = [WriteLoad] in
2302     def rmk : AVX512PI<opc, MRMSrcMem, (outs _.RC:$dst),
2303                      (ins _.RC:$src0, _.KRCWM:$mask, _.MemOp:$src1),
2304                      !strconcat(OpcodeStr, "\t{$src1, ${dst} {${mask}}|",
2305                       "${dst} {${mask}}, $src1}"),
2306                      [(set _.RC:$dst, (_.VT
2307                          (vselect _.KRCWM:$mask,
2308                           (_.VT (bitconvert (ld_frag addr:$src1))),
2309                            (_.VT _.RC:$src0))))], _.ExeDomain>, EVEX, EVEX_K;
2310   }
2311   let mayLoad = 1, SchedRW = [WriteLoad] in
2312   def rmkz : AVX512PI<opc, MRMSrcMem, (outs _.RC:$dst),
2313                   (ins _.KRCWM:$mask, _.MemOp:$src),
2314                   OpcodeStr #"\t{$src, ${dst} {${mask}} {z}|"#
2315                                 "${dst} {${mask}} {z}, $src}",
2316                   [(set _.RC:$dst, (_.VT (vselect _.KRCWM:$mask,
2317                     (_.VT (bitconvert (ld_frag addr:$src))), _.ImmAllZerosV)))],
2318                   _.ExeDomain>, EVEX, EVEX_KZ;
2319   }
2320   def : Pat<(_.VT (mload addr:$ptr, _.KRCWM:$mask, undef)),
2321             (!cast<Instruction>(NAME#_.ZSuffix##rmkz) _.KRCWM:$mask, addr:$ptr)>;
2322
2323   def : Pat<(_.VT (mload addr:$ptr, _.KRCWM:$mask, _.ImmAllZerosV)),
2324             (!cast<Instruction>(NAME#_.ZSuffix##rmkz) _.KRCWM:$mask, addr:$ptr)>;
2325
2326   def : Pat<(_.VT (mload addr:$ptr, _.KRCWM:$mask, (_.VT _.RC:$src0))),
2327             (!cast<Instruction>(NAME#_.ZSuffix##rmk) _.RC:$src0,
2328              _.KRCWM:$mask, addr:$ptr)>;
2329 }
2330
2331 multiclass avx512_alignedload_vl<bits<8> opc, string OpcodeStr,
2332                                   AVX512VLVectorVTInfo _,
2333                                   Predicate prd,
2334                                   bit IsReMaterializable = 1> {
2335   let Predicates = [prd] in
2336   defm Z : avx512_load<opc, OpcodeStr, _.info512, _.info512.AlignedLdFrag,
2337                        masked_load_aligned512, IsReMaterializable>, EVEX_V512;
2338
2339   let Predicates = [prd, HasVLX] in {
2340   defm Z256 : avx512_load<opc, OpcodeStr, _.info256, _.info256.AlignedLdFrag,
2341                           masked_load_aligned256, IsReMaterializable>, EVEX_V256;
2342   defm Z128 : avx512_load<opc, OpcodeStr, _.info128, _.info128.AlignedLdFrag,
2343                           masked_load_aligned128, IsReMaterializable>, EVEX_V128;
2344   }
2345 }
2346
2347 multiclass avx512_load_vl<bits<8> opc, string OpcodeStr,
2348                                   AVX512VLVectorVTInfo _,
2349                                   Predicate prd,
2350                                   bit IsReMaterializable = 1> {
2351   let Predicates = [prd] in
2352   defm Z : avx512_load<opc, OpcodeStr, _.info512, _.info512.LdFrag,
2353                        masked_load_unaligned, IsReMaterializable>, EVEX_V512;
2354
2355   let Predicates = [prd, HasVLX] in {
2356   defm Z256 : avx512_load<opc, OpcodeStr, _.info256, _.info256.LdFrag,
2357                          masked_load_unaligned, IsReMaterializable>, EVEX_V256;
2358   defm Z128 : avx512_load<opc, OpcodeStr, _.info128, _.info128.LdFrag,
2359                          masked_load_unaligned, IsReMaterializable>, EVEX_V128;
2360   }
2361 }
2362
2363 multiclass avx512_store<bits<8> opc, string OpcodeStr, X86VectorVTInfo _,
2364                         PatFrag st_frag, PatFrag mstore> {
2365   let isCodeGenOnly = 1, ForceDisassemble = 1, hasSideEffects = 0 in {
2366   def rr_alt : AVX512PI<opc, MRMDestReg, (outs _.RC:$dst), (ins _.RC:$src),
2367                         OpcodeStr # "\t{$src, $dst|$dst, $src}", [],
2368                         _.ExeDomain>, EVEX;
2369   let Constraints = "$src1 = $dst" in
2370   def rrk_alt : AVX512PI<opc, MRMDestReg, (outs  _.RC:$dst),
2371                          (ins _.RC:$src1, _.KRCWM:$mask, _.RC:$src2),
2372                          OpcodeStr #
2373                          "\t{$src2, ${dst} {${mask}}|${dst} {${mask}}, $src2}",
2374                          [], _.ExeDomain>,  EVEX, EVEX_K;
2375   def rrkz_alt : AVX512PI<opc, MRMDestReg, (outs  _.RC:$dst),
2376                           (ins _.KRCWM:$mask, _.RC:$src),
2377                           OpcodeStr #
2378                           "\t{$src, ${dst} {${mask}} {z}|" # 
2379                           "${dst} {${mask}} {z}, $src}",
2380                           [], _.ExeDomain>, EVEX, EVEX_KZ;
2381   }
2382   let mayStore = 1 in {
2383   def mr : AVX512PI<opc, MRMDestMem, (outs), (ins _.MemOp:$dst, _.RC:$src),
2384                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
2385                     [(st_frag (_.VT _.RC:$src), addr:$dst)], _.ExeDomain>, EVEX;
2386   def mrk : AVX512PI<opc, MRMDestMem, (outs),
2387                      (ins _.MemOp:$dst, _.KRCWM:$mask, _.RC:$src),
2388               OpcodeStr # "\t{$src, ${dst} {${mask}}|${dst} {${mask}}, $src}",
2389                [], _.ExeDomain>, EVEX, EVEX_K;
2390   }
2391
2392   def: Pat<(mstore addr:$ptr, _.KRCWM:$mask, (_.VT _.RC:$src)),
2393            (!cast<Instruction>(NAME#_.ZSuffix##mrk) addr:$ptr,
2394                                                     _.KRCWM:$mask, _.RC:$src)>;
2395 }
2396
2397
2398 multiclass avx512_store_vl< bits<8> opc, string OpcodeStr,
2399                             AVX512VLVectorVTInfo _, Predicate prd> {
2400   let Predicates = [prd] in
2401   defm Z : avx512_store<opc, OpcodeStr, _.info512, store,
2402                         masked_store_unaligned>, EVEX_V512;
2403
2404   let Predicates = [prd, HasVLX] in {
2405     defm Z256 : avx512_store<opc, OpcodeStr, _.info256, store,
2406                              masked_store_unaligned>, EVEX_V256;
2407     defm Z128 : avx512_store<opc, OpcodeStr, _.info128, store,
2408                              masked_store_unaligned>, EVEX_V128;
2409   }
2410 }
2411
2412 multiclass avx512_alignedstore_vl<bits<8> opc, string OpcodeStr,
2413                                   AVX512VLVectorVTInfo _,  Predicate prd> {
2414   let Predicates = [prd] in
2415   defm Z : avx512_store<opc, OpcodeStr, _.info512, alignedstore512,
2416                         masked_store_aligned512>, EVEX_V512;
2417
2418   let Predicates = [prd, HasVLX] in {
2419     defm Z256 : avx512_store<opc, OpcodeStr, _.info256, alignedstore256,
2420                              masked_store_aligned256>, EVEX_V256;
2421     defm Z128 : avx512_store<opc, OpcodeStr, _.info128, alignedstore,
2422                              masked_store_aligned128>, EVEX_V128;
2423   }
2424 }
2425
2426 defm VMOVAPS : avx512_alignedload_vl<0x28, "vmovaps", avx512vl_f32_info,
2427                                      HasAVX512>,
2428                avx512_alignedstore_vl<0x29, "vmovaps", avx512vl_f32_info,
2429                                       HasAVX512>,  PS, EVEX_CD8<32, CD8VF>;
2430
2431 defm VMOVAPD : avx512_alignedload_vl<0x28, "vmovapd", avx512vl_f64_info,
2432                                      HasAVX512>,
2433                avx512_alignedstore_vl<0x29, "vmovapd", avx512vl_f64_info,
2434                                      HasAVX512>, PD, VEX_W, EVEX_CD8<64, CD8VF>;
2435
2436 defm VMOVUPS : avx512_load_vl<0x10, "vmovups", avx512vl_f32_info, HasAVX512>,
2437                avx512_store_vl<0x11, "vmovups", avx512vl_f32_info, HasAVX512>,
2438                               PS, EVEX_CD8<32, CD8VF>;
2439
2440 defm VMOVUPD : avx512_load_vl<0x10, "vmovupd", avx512vl_f64_info, HasAVX512, 0>,
2441                avx512_store_vl<0x11, "vmovupd", avx512vl_f64_info, HasAVX512>,
2442                PD, VEX_W, EVEX_CD8<64, CD8VF>;
2443
2444 def: Pat<(v8f64 (int_x86_avx512_mask_loadu_pd_512 addr:$ptr,
2445                 (bc_v8f64 (v16i32 immAllZerosV)), GR8:$mask)),
2446        (VMOVUPDZrmkz (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)), addr:$ptr)>;
2447
2448 def: Pat<(v16f32 (int_x86_avx512_mask_loadu_ps_512 addr:$ptr,
2449                  (bc_v16f32 (v16i32 immAllZerosV)), GR16:$mask)),
2450        (VMOVUPSZrmkz (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)), addr:$ptr)>;
2451
2452 def: Pat<(v8f64 (int_x86_avx512_mask_load_pd_512 addr:$ptr,
2453                 (bc_v8f64 (v16i32 immAllZerosV)), GR8:$mask)),
2454        (VMOVAPDZrmkz (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)), addr:$ptr)>;
2455
2456 def: Pat<(v16f32 (int_x86_avx512_mask_load_ps_512 addr:$ptr,
2457                  (bc_v16f32 (v16i32 immAllZerosV)), GR16:$mask)),
2458        (VMOVAPSZrmkz (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)), addr:$ptr)>;
2459
2460 def: Pat<(v8f64 (int_x86_avx512_mask_load_pd_512 addr:$ptr,
2461                 (bc_v8f64 (v16i32 immAllZerosV)), (i8 -1))),
2462        (VMOVAPDZrm addr:$ptr)>;
2463
2464 def: Pat<(v16f32 (int_x86_avx512_mask_load_ps_512 addr:$ptr,
2465                  (bc_v16f32 (v16i32 immAllZerosV)), (i16 -1))),
2466        (VMOVAPSZrm addr:$ptr)>;
2467
2468 def: Pat<(int_x86_avx512_mask_storeu_ps_512 addr:$ptr, (v16f32 VR512:$src),
2469           GR16:$mask),
2470          (VMOVUPSZmrk addr:$ptr, (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)),
2471             VR512:$src)>;
2472 def: Pat<(int_x86_avx512_mask_storeu_pd_512 addr:$ptr, (v8f64 VR512:$src),
2473           GR8:$mask),
2474          (VMOVUPDZmrk addr:$ptr, (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)),
2475             VR512:$src)>;
2476
2477 def: Pat<(int_x86_avx512_mask_store_ps_512 addr:$ptr, (v16f32 VR512:$src),
2478           GR16:$mask),
2479          (VMOVAPSZmrk addr:$ptr, (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)),
2480             VR512:$src)>;
2481 def: Pat<(int_x86_avx512_mask_store_pd_512 addr:$ptr, (v8f64 VR512:$src),
2482           GR8:$mask),
2483          (VMOVAPDZmrk addr:$ptr, (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)),
2484             VR512:$src)>;
2485
2486 let Predicates = [HasAVX512, NoVLX] in {
2487 def: Pat<(masked_store addr:$ptr, VK8WM:$mask, (v8f32 VR256:$src)),
2488          (VMOVUPSZmrk addr:$ptr,
2489          (v16i1 (COPY_TO_REGCLASS VK8WM:$mask, VK16WM)),
2490          (INSERT_SUBREG (v16f32 (IMPLICIT_DEF)), VR256:$src, sub_ymm))>;
2491
2492 def: Pat<(v8f32 (masked_load addr:$ptr, VK8WM:$mask, undef)),
2493          (v8f32 (EXTRACT_SUBREG (v16f32 (VMOVUPSZrmkz 
2494           (v16i1 (COPY_TO_REGCLASS VK8WM:$mask, VK16WM)), addr:$ptr)), sub_ymm))>;
2495
2496 def: Pat<(v8f32 (masked_load addr:$ptr, VK8WM:$mask, (v8f32 VR256:$src0))),
2497          (v8f32 (EXTRACT_SUBREG (v16f32 (VMOVUPSZrmk
2498          (INSERT_SUBREG (v16f32 (IMPLICIT_DEF)), VR256:$src0, sub_ymm),
2499           (v16i1 (COPY_TO_REGCLASS VK8WM:$mask, VK16WM)), addr:$ptr)), sub_ymm))>;
2500 }
2501
2502 defm VMOVDQA32 : avx512_alignedload_vl<0x6F, "vmovdqa32", avx512vl_i32_info,
2503                                        HasAVX512>,
2504                  avx512_alignedstore_vl<0x7F, "vmovdqa32", avx512vl_i32_info,
2505                                        HasAVX512>, PD, EVEX_CD8<32, CD8VF>;
2506
2507 defm VMOVDQA64 : avx512_alignedload_vl<0x6F, "vmovdqa64", avx512vl_i64_info,
2508                                        HasAVX512>,
2509                  avx512_alignedstore_vl<0x7F, "vmovdqa64", avx512vl_i64_info,
2510                                     HasAVX512>, PD, VEX_W, EVEX_CD8<64, CD8VF>;
2511
2512 defm VMOVDQU8 : avx512_load_vl<0x6F, "vmovdqu8", avx512vl_i8_info, HasBWI>,
2513                  avx512_store_vl<0x7F, "vmovdqu8", avx512vl_i8_info,
2514                                  HasBWI>, XD, EVEX_CD8<8, CD8VF>;
2515
2516 defm VMOVDQU16 : avx512_load_vl<0x6F, "vmovdqu16", avx512vl_i16_info, HasBWI>,
2517                  avx512_store_vl<0x7F, "vmovdqu16", avx512vl_i16_info,
2518                                  HasBWI>, XD, VEX_W, EVEX_CD8<16, CD8VF>;
2519
2520 defm VMOVDQU32 : avx512_load_vl<0x6F, "vmovdqu32", avx512vl_i32_info, HasAVX512>,
2521                  avx512_store_vl<0x7F, "vmovdqu32", avx512vl_i32_info,
2522                                  HasAVX512>, XS, EVEX_CD8<32, CD8VF>;
2523
2524 defm VMOVDQU64 : avx512_load_vl<0x6F, "vmovdqu64", avx512vl_i64_info, HasAVX512>,
2525                  avx512_store_vl<0x7F, "vmovdqu64", avx512vl_i64_info,
2526                                  HasAVX512>, XS, VEX_W, EVEX_CD8<64, CD8VF>;
2527
2528 def: Pat<(v16i32 (int_x86_avx512_mask_loadu_d_512 addr:$ptr,
2529                  (v16i32 immAllZerosV), GR16:$mask)),
2530        (VMOVDQU32Zrmkz (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)), addr:$ptr)>;
2531
2532 def: Pat<(v8i64 (int_x86_avx512_mask_loadu_q_512 addr:$ptr,
2533                 (bc_v8i64 (v16i32 immAllZerosV)), GR8:$mask)),
2534        (VMOVDQU64Zrmkz (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)), addr:$ptr)>;
2535
2536 def: Pat<(int_x86_avx512_mask_storeu_d_512 addr:$ptr, (v16i32 VR512:$src),
2537             GR16:$mask),
2538          (VMOVDQU32Zmrk addr:$ptr, (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)),
2539             VR512:$src)>;
2540 def: Pat<(int_x86_avx512_mask_storeu_q_512 addr:$ptr, (v8i64 VR512:$src),
2541             GR8:$mask),
2542          (VMOVDQU64Zmrk addr:$ptr, (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)),
2543             VR512:$src)>;
2544
2545 let AddedComplexity = 20 in {
2546 def : Pat<(v8i64 (vselect VK8WM:$mask, (v8i64 VR512:$src),
2547                           (bc_v8i64 (v16i32 immAllZerosV)))),
2548                   (VMOVDQU64Zrrkz VK8WM:$mask, VR512:$src)>;
2549
2550 def : Pat<(v8i64 (vselect VK8WM:$mask, (bc_v8i64 (v16i32 immAllZerosV)),
2551                           (v8i64 VR512:$src))),
2552    (VMOVDQU64Zrrkz (COPY_TO_REGCLASS (KNOTWrr (COPY_TO_REGCLASS VK8:$mask, VK16)),
2553                                               VK8), VR512:$src)>;
2554
2555 def : Pat<(v16i32 (vselect VK16WM:$mask, (v16i32 VR512:$src),
2556                            (v16i32 immAllZerosV))),
2557                   (VMOVDQU32Zrrkz VK16WM:$mask, VR512:$src)>;
2558
2559 def : Pat<(v16i32 (vselect VK16WM:$mask, (v16i32 immAllZerosV),
2560                            (v16i32 VR512:$src))),
2561                   (VMOVDQU32Zrrkz (KNOTWrr VK16WM:$mask), VR512:$src)>;
2562 }
2563 // NoVLX patterns
2564 let Predicates = [HasAVX512, NoVLX] in {
2565 def: Pat<(masked_store addr:$ptr, VK8WM:$mask, (v8i32 VR256:$src)),
2566          (VMOVDQU32Zmrk addr:$ptr,
2567          (v16i1 (COPY_TO_REGCLASS VK8WM:$mask, VK16WM)),
2568          (INSERT_SUBREG (v16i32 (IMPLICIT_DEF)), VR256:$src, sub_ymm))>;
2569
2570 def: Pat<(v8i32 (masked_load addr:$ptr, VK8WM:$mask, undef)),
2571          (v8i32 (EXTRACT_SUBREG (v16i32 (VMOVDQU32Zrmkz 
2572           (v16i1 (COPY_TO_REGCLASS VK8WM:$mask, VK16WM)), addr:$ptr)), sub_ymm))>;
2573 }
2574
2575 // Move Int Doubleword to Packed Double Int
2576 //
2577 def VMOVDI2PDIZrr : AVX512BI<0x6E, MRMSrcReg, (outs VR128X:$dst), (ins GR32:$src),
2578                       "vmovd\t{$src, $dst|$dst, $src}",
2579                       [(set VR128X:$dst,
2580                         (v4i32 (scalar_to_vector GR32:$src)))], IIC_SSE_MOVDQ>,
2581                         EVEX, VEX_LIG;
2582 def VMOVDI2PDIZrm : AVX512BI<0x6E, MRMSrcMem, (outs VR128X:$dst), (ins i32mem:$src),
2583                       "vmovd\t{$src, $dst|$dst, $src}",
2584                       [(set VR128X:$dst,
2585                         (v4i32 (scalar_to_vector (loadi32 addr:$src))))],
2586                         IIC_SSE_MOVDQ>, EVEX, VEX_LIG, EVEX_CD8<32, CD8VT1>;
2587 def VMOV64toPQIZrr : AVX512BI<0x6E, MRMSrcReg, (outs VR128X:$dst), (ins GR64:$src),
2588                       "vmovq\t{$src, $dst|$dst, $src}",
2589                         [(set VR128X:$dst,
2590                           (v2i64 (scalar_to_vector GR64:$src)))],
2591                           IIC_SSE_MOVDQ>, EVEX, VEX_W, VEX_LIG;
2592 let isCodeGenOnly = 1 in {
2593 def VMOV64toSDZrr : AVX512BI<0x6E, MRMSrcReg, (outs FR64:$dst), (ins GR64:$src),
2594                        "vmovq\t{$src, $dst|$dst, $src}",
2595                        [(set FR64:$dst, (bitconvert GR64:$src))],
2596                        IIC_SSE_MOVDQ>, EVEX, VEX_W, Sched<[WriteMove]>;
2597 def VMOVSDto64Zrr : AVX512BI<0x7E, MRMDestReg, (outs GR64:$dst), (ins FR64:$src),
2598                          "vmovq\t{$src, $dst|$dst, $src}",
2599                          [(set GR64:$dst, (bitconvert FR64:$src))],
2600                          IIC_SSE_MOVDQ>, EVEX, VEX_W, Sched<[WriteMove]>;
2601 }
2602 def VMOVSDto64Zmr : AVX512BI<0x7E, MRMDestMem, (outs), (ins i64mem:$dst, FR64:$src),
2603                          "vmovq\t{$src, $dst|$dst, $src}",
2604                          [(store (i64 (bitconvert FR64:$src)), addr:$dst)],
2605                          IIC_SSE_MOVDQ>, EVEX, VEX_W, Sched<[WriteStore]>,
2606                          EVEX_CD8<64, CD8VT1>;
2607
2608 // Move Int Doubleword to Single Scalar
2609 //
2610 let isCodeGenOnly = 1 in {
2611 def VMOVDI2SSZrr  : AVX512BI<0x6E, MRMSrcReg, (outs FR32X:$dst), (ins GR32:$src),
2612                       "vmovd\t{$src, $dst|$dst, $src}",
2613                       [(set FR32X:$dst, (bitconvert GR32:$src))],
2614                       IIC_SSE_MOVDQ>, EVEX, VEX_LIG;
2615
2616 def VMOVDI2SSZrm  : AVX512BI<0x6E, MRMSrcMem, (outs FR32X:$dst), (ins i32mem:$src),
2617                       "vmovd\t{$src, $dst|$dst, $src}",
2618                       [(set FR32X:$dst, (bitconvert (loadi32 addr:$src)))],
2619                       IIC_SSE_MOVDQ>, EVEX, VEX_LIG, EVEX_CD8<32, CD8VT1>;
2620 }
2621
2622 // Move doubleword from xmm register to r/m32
2623 //
2624 def VMOVPDI2DIZrr  : AVX512BI<0x7E, MRMDestReg, (outs GR32:$dst), (ins VR128X:$src),
2625                        "vmovd\t{$src, $dst|$dst, $src}",
2626                        [(set GR32:$dst, (vector_extract (v4i32 VR128X:$src),
2627                                         (iPTR 0)))], IIC_SSE_MOVD_ToGP>,
2628                        EVEX, VEX_LIG;
2629 def VMOVPDI2DIZmr  : AVX512BI<0x7E, MRMDestMem, (outs),
2630                        (ins i32mem:$dst, VR128X:$src),
2631                        "vmovd\t{$src, $dst|$dst, $src}",
2632                        [(store (i32 (vector_extract (v4i32 VR128X:$src),
2633                                      (iPTR 0))), addr:$dst)], IIC_SSE_MOVDQ>,
2634                        EVEX, VEX_LIG, EVEX_CD8<32, CD8VT1>;
2635
2636 // Move quadword from xmm1 register to r/m64
2637 //
2638 def VMOVPQIto64Zrr : I<0x7E, MRMDestReg, (outs GR64:$dst), (ins VR128X:$src),
2639                       "vmovq\t{$src, $dst|$dst, $src}",
2640                       [(set GR64:$dst, (extractelt (v2i64 VR128X:$src),
2641                                                    (iPTR 0)))],
2642                       IIC_SSE_MOVD_ToGP>, PD, EVEX, VEX_LIG, VEX_W,
2643                       Requires<[HasAVX512, In64BitMode]>;
2644
2645 def VMOVPQIto64Zmr : I<0xD6, MRMDestMem, (outs),
2646                        (ins i64mem:$dst, VR128X:$src),
2647                        "vmovq\t{$src, $dst|$dst, $src}",
2648                        [(store (extractelt (v2i64 VR128X:$src), (iPTR 0)),
2649                                addr:$dst)], IIC_SSE_MOVDQ>,
2650                        EVEX, PD, VEX_LIG, VEX_W, EVEX_CD8<64, CD8VT1>,
2651                        Sched<[WriteStore]>, Requires<[HasAVX512, In64BitMode]>;
2652
2653 // Move Scalar Single to Double Int
2654 //
2655 let isCodeGenOnly = 1 in {
2656 def VMOVSS2DIZrr  : AVX512BI<0x7E, MRMDestReg, (outs GR32:$dst),
2657                       (ins FR32X:$src),
2658                       "vmovd\t{$src, $dst|$dst, $src}",
2659                       [(set GR32:$dst, (bitconvert FR32X:$src))],
2660                       IIC_SSE_MOVD_ToGP>, EVEX, VEX_LIG;
2661 def VMOVSS2DIZmr  : AVX512BI<0x7E, MRMDestMem, (outs),
2662                       (ins i32mem:$dst, FR32X:$src),
2663                       "vmovd\t{$src, $dst|$dst, $src}",
2664                       [(store (i32 (bitconvert FR32X:$src)), addr:$dst)],
2665                       IIC_SSE_MOVDQ>, EVEX, VEX_LIG, EVEX_CD8<32, CD8VT1>;
2666 }
2667
2668 // Move Quadword Int to Packed Quadword Int
2669 //
2670 def VMOVQI2PQIZrm : AVX512BI<0x6E, MRMSrcMem, (outs VR128X:$dst),
2671                       (ins i64mem:$src),
2672                       "vmovq\t{$src, $dst|$dst, $src}",
2673                       [(set VR128X:$dst,
2674                         (v2i64 (scalar_to_vector (loadi64 addr:$src))))]>,
2675                       EVEX, VEX_LIG, VEX_W, EVEX_CD8<64, CD8VT1>;
2676
2677 //===----------------------------------------------------------------------===//
2678 // AVX-512  MOVSS, MOVSD
2679 //===----------------------------------------------------------------------===//
2680
2681 multiclass avx512_move_scalar <string asm, RegisterClass RC,
2682                               SDNode OpNode, ValueType vt,
2683                               X86MemOperand x86memop, PatFrag mem_pat> {
2684   let hasSideEffects = 0 in {
2685   def rr : SI<0x10, MRMSrcReg, (outs VR128X:$dst), (ins VR128X:$src1, RC:$src2),
2686               !strconcat(asm, "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
2687               [(set VR128X:$dst, (vt (OpNode VR128X:$src1,
2688                                       (scalar_to_vector RC:$src2))))],
2689               IIC_SSE_MOV_S_RR>, EVEX_4V, VEX_LIG;
2690   let Constraints = "$src1 = $dst" in
2691   def rrk : SI<0x10, MRMSrcReg, (outs VR128X:$dst),
2692               (ins VR128X:$src1, VK1WM:$mask, RC:$src2, RC:$src3),
2693               !strconcat(asm,
2694                 "\t{$src3, $src2, $dst {${mask}}|$dst {${mask}}, $src2, $src3}"),
2695               [], IIC_SSE_MOV_S_RR>, EVEX_4V, VEX_LIG, EVEX_K;
2696   def rm : SI<0x10, MRMSrcMem, (outs RC:$dst), (ins x86memop:$src),
2697               !strconcat(asm, "\t{$src, $dst|$dst, $src}"),
2698               [(set RC:$dst, (mem_pat addr:$src))], IIC_SSE_MOV_S_RM>,
2699               EVEX, VEX_LIG;
2700   let mayStore = 1 in {
2701   def mr: SI<0x11, MRMDestMem, (outs), (ins x86memop:$dst, RC:$src),
2702              !strconcat(asm, "\t{$src, $dst|$dst, $src}"),
2703              [(store RC:$src, addr:$dst)], IIC_SSE_MOV_S_MR>,
2704              EVEX, VEX_LIG;
2705   def mrk: SI<0x11, MRMDestMem, (outs), (ins x86memop:$dst, VK1WM:$mask, RC:$src),
2706              !strconcat(asm, "\t{$src, $dst {${mask}}|$dst {${mask}}, $src}"),
2707              [], IIC_SSE_MOV_S_MR>,
2708              EVEX, VEX_LIG, EVEX_K;
2709   } // mayStore
2710   } //hasSideEffects = 0
2711 }
2712
2713 let ExeDomain = SSEPackedSingle in
2714 defm VMOVSSZ : avx512_move_scalar<"movss", FR32X, X86Movss, v4f32, f32mem,
2715                                  loadf32>, XS, EVEX_CD8<32, CD8VT1>;
2716
2717 let ExeDomain = SSEPackedDouble in
2718 defm VMOVSDZ : avx512_move_scalar<"movsd", FR64X, X86Movsd, v2f64, f64mem,
2719                                  loadf64>, XD, VEX_W, EVEX_CD8<64, CD8VT1>;
2720
2721 def : Pat<(f32 (X86select VK1WM:$mask, (f32 FR32X:$src1), (f32 FR32X:$src2))),
2722           (COPY_TO_REGCLASS (VMOVSSZrrk (COPY_TO_REGCLASS FR32X:$src2, VR128X),
2723            VK1WM:$mask, (f32 (IMPLICIT_DEF)), FR32X:$src1), FR32X)>;
2724
2725 def : Pat<(f64 (X86select VK1WM:$mask, (f64 FR64X:$src1), (f64 FR64X:$src2))),
2726           (COPY_TO_REGCLASS (VMOVSDZrrk (COPY_TO_REGCLASS FR64X:$src2, VR128X),
2727            VK1WM:$mask, (f64 (IMPLICIT_DEF)), FR64X:$src1), FR64X)>;
2728
2729 def : Pat<(int_x86_avx512_mask_store_ss addr:$dst, VR128X:$src, GR8:$mask),
2730           (VMOVSSZmrk addr:$dst, (i1 (COPY_TO_REGCLASS GR8:$mask, VK1WM)),
2731            (COPY_TO_REGCLASS VR128X:$src, FR32X))>;
2732
2733 // For the disassembler
2734 let isCodeGenOnly = 1, ForceDisassemble = 1, hasSideEffects = 0 in {
2735   def VMOVSSZrr_REV : SI<0x11, MRMDestReg, (outs VR128X:$dst),
2736                         (ins VR128X:$src1, FR32X:$src2),
2737                         "movss\t{$src2, $src1, $dst|$dst, $src1, $src2}", [],
2738                         IIC_SSE_MOV_S_RR>,
2739                         XS, EVEX_4V, VEX_LIG;
2740   def VMOVSDZrr_REV : SI<0x11, MRMDestReg, (outs VR128X:$dst),
2741                         (ins VR128X:$src1, FR64X:$src2),
2742                         "movsd\t{$src2, $src1, $dst|$dst, $src1, $src2}", [],
2743                         IIC_SSE_MOV_S_RR>,
2744                         XD, EVEX_4V, VEX_LIG, VEX_W;
2745 }
2746
2747 let Predicates = [HasAVX512] in {
2748   let AddedComplexity = 15 in {
2749   // Move scalar to XMM zero-extended, zeroing a VR128X then do a
2750   // MOVS{S,D} to the lower bits.
2751   def : Pat<(v4f32 (X86vzmovl (v4f32 (scalar_to_vector FR32X:$src)))),
2752             (VMOVSSZrr (v4f32 (V_SET0)), FR32X:$src)>;
2753   def : Pat<(v4f32 (X86vzmovl (v4f32 VR128X:$src))),
2754             (VMOVSSZrr (v4f32 (V_SET0)), (COPY_TO_REGCLASS VR128X:$src, FR32X))>;
2755   def : Pat<(v4i32 (X86vzmovl (v4i32 VR128X:$src))),
2756             (VMOVSSZrr (v4i32 (V_SET0)), (COPY_TO_REGCLASS VR128X:$src, FR32X))>;
2757   def : Pat<(v2f64 (X86vzmovl (v2f64 (scalar_to_vector FR64X:$src)))),
2758             (VMOVSDZrr (v2f64 (V_SET0)), FR64X:$src)>;
2759
2760   // Move low f32 and clear high bits.
2761   def : Pat<(v8f32 (X86vzmovl (v8f32 VR256X:$src))),
2762             (SUBREG_TO_REG (i32 0),
2763              (VMOVSSZrr (v4f32 (V_SET0)),
2764               (EXTRACT_SUBREG (v8f32 VR256X:$src), sub_xmm)), sub_xmm)>;
2765   def : Pat<(v8i32 (X86vzmovl (v8i32 VR256X:$src))),
2766             (SUBREG_TO_REG (i32 0),
2767              (VMOVSSZrr (v4i32 (V_SET0)),
2768                        (EXTRACT_SUBREG (v8i32 VR256X:$src), sub_xmm)), sub_xmm)>;
2769   }
2770
2771   let AddedComplexity = 20 in {
2772   // MOVSSrm zeros the high parts of the register; represent this
2773   // with SUBREG_TO_REG. The AVX versions also write: DST[255:128] <- 0
2774   def : Pat<(v4f32 (X86vzmovl (v4f32 (scalar_to_vector (loadf32 addr:$src))))),
2775             (COPY_TO_REGCLASS (VMOVSSZrm addr:$src), VR128X)>;
2776   def : Pat<(v4f32 (scalar_to_vector (loadf32 addr:$src))),
2777             (COPY_TO_REGCLASS (VMOVSSZrm addr:$src), VR128X)>;
2778   def : Pat<(v4f32 (X86vzmovl (loadv4f32 addr:$src))),
2779             (COPY_TO_REGCLASS (VMOVSSZrm addr:$src), VR128X)>;
2780
2781   // MOVSDrm zeros the high parts of the register; represent this
2782   // with SUBREG_TO_REG. The AVX versions also write: DST[255:128] <- 0
2783   def : Pat<(v2f64 (X86vzmovl (v2f64 (scalar_to_vector (loadf64 addr:$src))))),
2784             (COPY_TO_REGCLASS (VMOVSDZrm addr:$src), VR128X)>;
2785   def : Pat<(v2f64 (scalar_to_vector (loadf64 addr:$src))),
2786             (COPY_TO_REGCLASS (VMOVSDZrm addr:$src), VR128X)>;
2787   def : Pat<(v2f64 (X86vzmovl (loadv2f64 addr:$src))),
2788             (COPY_TO_REGCLASS (VMOVSDZrm addr:$src), VR128X)>;
2789   def : Pat<(v2f64 (X86vzmovl (bc_v2f64 (loadv4f32 addr:$src)))),
2790             (COPY_TO_REGCLASS (VMOVSDZrm addr:$src), VR128X)>;
2791   def : Pat<(v2f64 (X86vzload addr:$src)),
2792             (COPY_TO_REGCLASS (VMOVSDZrm addr:$src), VR128X)>;
2793
2794   // Represent the same patterns above but in the form they appear for
2795   // 256-bit types
2796   def : Pat<(v8i32 (X86vzmovl (insert_subvector undef,
2797                    (v4i32 (scalar_to_vector (loadi32 addr:$src))), (iPTR 0)))),
2798             (SUBREG_TO_REG (i32 0), (VMOVDI2PDIZrm addr:$src), sub_xmm)>;
2799   def : Pat<(v8f32 (X86vzmovl (insert_subvector undef,
2800                    (v4f32 (scalar_to_vector (loadf32 addr:$src))), (iPTR 0)))),
2801             (SUBREG_TO_REG (i32 0), (VMOVSSZrm addr:$src), sub_xmm)>;
2802   def : Pat<(v4f64 (X86vzmovl (insert_subvector undef,
2803                    (v2f64 (scalar_to_vector (loadf64 addr:$src))), (iPTR 0)))),
2804             (SUBREG_TO_REG (i32 0), (VMOVSDZrm addr:$src), sub_xmm)>;
2805   }
2806   def : Pat<(v8f32 (X86vzmovl (insert_subvector undef,
2807                    (v4f32 (scalar_to_vector FR32X:$src)), (iPTR 0)))),
2808             (SUBREG_TO_REG (i32 0), (v4f32 (VMOVSSZrr (v4f32 (V_SET0)),
2809                                             FR32X:$src)), sub_xmm)>;
2810   def : Pat<(v4f64 (X86vzmovl (insert_subvector undef,
2811                    (v2f64 (scalar_to_vector FR64X:$src)), (iPTR 0)))),
2812             (SUBREG_TO_REG (i64 0), (v2f64 (VMOVSDZrr (v2f64 (V_SET0)),
2813                                      FR64X:$src)), sub_xmm)>;
2814   def : Pat<(v4i64 (X86vzmovl (insert_subvector undef,
2815                    (v2i64 (scalar_to_vector (loadi64 addr:$src))), (iPTR 0)))),
2816             (SUBREG_TO_REG (i64 0), (VMOVQI2PQIZrm addr:$src), sub_xmm)>;
2817
2818   // Move low f64 and clear high bits.
2819   def : Pat<(v4f64 (X86vzmovl (v4f64 VR256X:$src))),
2820             (SUBREG_TO_REG (i32 0),
2821              (VMOVSDZrr (v2f64 (V_SET0)),
2822                        (EXTRACT_SUBREG (v4f64 VR256X:$src), sub_xmm)), sub_xmm)>;
2823
2824   def : Pat<(v4i64 (X86vzmovl (v4i64 VR256X:$src))),
2825             (SUBREG_TO_REG (i32 0), (VMOVSDZrr (v2i64 (V_SET0)),
2826                        (EXTRACT_SUBREG (v4i64 VR256X:$src), sub_xmm)), sub_xmm)>;
2827
2828   // Extract and store.
2829   def : Pat<(store (f32 (vector_extract (v4f32 VR128X:$src), (iPTR 0))),
2830                    addr:$dst),
2831             (VMOVSSZmr addr:$dst, (COPY_TO_REGCLASS (v4f32 VR128X:$src), FR32X))>;
2832   def : Pat<(store (f64 (vector_extract (v2f64 VR128X:$src), (iPTR 0))),
2833                    addr:$dst),
2834             (VMOVSDZmr addr:$dst, (COPY_TO_REGCLASS (v2f64 VR128X:$src), FR64X))>;
2835
2836   // Shuffle with VMOVSS
2837   def : Pat<(v4i32 (X86Movss VR128X:$src1, VR128X:$src2)),
2838             (VMOVSSZrr (v4i32 VR128X:$src1),
2839                       (COPY_TO_REGCLASS (v4i32 VR128X:$src2), FR32X))>;
2840   def : Pat<(v4f32 (X86Movss VR128X:$src1, VR128X:$src2)),
2841             (VMOVSSZrr (v4f32 VR128X:$src1),
2842                       (COPY_TO_REGCLASS (v4f32 VR128X:$src2), FR32X))>;
2843
2844   // 256-bit variants
2845   def : Pat<(v8i32 (X86Movss VR256X:$src1, VR256X:$src2)),
2846             (SUBREG_TO_REG (i32 0),
2847               (VMOVSSZrr (EXTRACT_SUBREG (v8i32 VR256X:$src1), sub_xmm),
2848                         (EXTRACT_SUBREG (v8i32 VR256X:$src2), sub_xmm)),
2849               sub_xmm)>;
2850   def : Pat<(v8f32 (X86Movss VR256X:$src1, VR256X:$src2)),
2851             (SUBREG_TO_REG (i32 0),
2852               (VMOVSSZrr (EXTRACT_SUBREG (v8f32 VR256X:$src1), sub_xmm),
2853                         (EXTRACT_SUBREG (v8f32 VR256X:$src2), sub_xmm)),
2854               sub_xmm)>;
2855
2856   // Shuffle with VMOVSD
2857   def : Pat<(v2i64 (X86Movsd VR128X:$src1, VR128X:$src2)),
2858             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2859   def : Pat<(v2f64 (X86Movsd VR128X:$src1, VR128X:$src2)),
2860             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2861   def : Pat<(v4f32 (X86Movsd VR128X:$src1, VR128X:$src2)),
2862             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2863   def : Pat<(v4i32 (X86Movsd VR128X:$src1, VR128X:$src2)),
2864             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2865
2866   // 256-bit variants
2867   def : Pat<(v4i64 (X86Movsd VR256X:$src1, VR256X:$src2)),
2868             (SUBREG_TO_REG (i32 0),
2869               (VMOVSDZrr (EXTRACT_SUBREG (v4i64 VR256X:$src1), sub_xmm),
2870                         (EXTRACT_SUBREG (v4i64 VR256X:$src2), sub_xmm)),
2871               sub_xmm)>;
2872   def : Pat<(v4f64 (X86Movsd VR256X:$src1, VR256X:$src2)),
2873             (SUBREG_TO_REG (i32 0),
2874               (VMOVSDZrr (EXTRACT_SUBREG (v4f64 VR256X:$src1), sub_xmm),
2875                         (EXTRACT_SUBREG (v4f64 VR256X:$src2), sub_xmm)),
2876               sub_xmm)>;
2877
2878   def : Pat<(v2f64 (X86Movlpd VR128X:$src1, VR128X:$src2)),
2879             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2880   def : Pat<(v2i64 (X86Movlpd VR128X:$src1, VR128X:$src2)),
2881             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2882   def : Pat<(v4f32 (X86Movlps VR128X:$src1, VR128X:$src2)),
2883             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2884   def : Pat<(v4i32 (X86Movlps VR128X:$src1, VR128X:$src2)),
2885             (VMOVSDZrr VR128X:$src1, (COPY_TO_REGCLASS VR128X:$src2, FR64X))>;
2886 }
2887
2888 let AddedComplexity = 15 in
2889 def VMOVZPQILo2PQIZrr : AVX512XSI<0x7E, MRMSrcReg, (outs VR128X:$dst),
2890                                 (ins VR128X:$src),
2891                                 "vmovq\t{$src, $dst|$dst, $src}",
2892                                 [(set VR128X:$dst, (v2i64 (X86vzmovl
2893                                                    (v2i64 VR128X:$src))))],
2894                                 IIC_SSE_MOVQ_RR>, EVEX, VEX_W;
2895
2896 let AddedComplexity = 20 in
2897 def VMOVZPQILo2PQIZrm : AVX512XSI<0x7E, MRMSrcMem, (outs VR128X:$dst),
2898                                  (ins i128mem:$src),
2899                                  "vmovq\t{$src, $dst|$dst, $src}",
2900                                  [(set VR128X:$dst, (v2i64 (X86vzmovl
2901                                                      (loadv2i64 addr:$src))))],
2902                                  IIC_SSE_MOVDQ>, EVEX, VEX_W,
2903                                  EVEX_CD8<8, CD8VT8>;
2904
2905 let Predicates = [HasAVX512] in {
2906   // AVX 128-bit movd/movq instruction write zeros in the high 128-bit part.
2907   let AddedComplexity = 20 in {
2908     def : Pat<(v4i32 (X86vzmovl (v4i32 (scalar_to_vector (loadi32 addr:$src))))),
2909               (VMOVDI2PDIZrm addr:$src)>;
2910     def : Pat<(v2i64 (X86vzmovl (v2i64 (scalar_to_vector GR64:$src)))),
2911               (VMOV64toPQIZrr GR64:$src)>;
2912     def : Pat<(v4i32 (X86vzmovl (v4i32 (scalar_to_vector GR32:$src)))),
2913               (VMOVDI2PDIZrr GR32:$src)>;
2914
2915     def : Pat<(v4i32 (X86vzmovl (bc_v4i32 (loadv4f32 addr:$src)))),
2916               (VMOVDI2PDIZrm addr:$src)>;
2917     def : Pat<(v4i32 (X86vzmovl (bc_v4i32 (loadv2i64 addr:$src)))),
2918               (VMOVDI2PDIZrm addr:$src)>;
2919     def : Pat<(v2i64 (X86vzmovl (loadv2i64 addr:$src))),
2920             (VMOVZPQILo2PQIZrm addr:$src)>;
2921     def : Pat<(v2f64 (X86vzmovl (v2f64 VR128X:$src))),
2922             (VMOVZPQILo2PQIZrr VR128X:$src)>;
2923     def : Pat<(v2i64 (X86vzload addr:$src)),
2924             (VMOVZPQILo2PQIZrm addr:$src)>;
2925   }
2926
2927   // Use regular 128-bit instructions to match 256-bit scalar_to_vec+zext.
2928   def : Pat<(v8i32 (X86vzmovl (insert_subvector undef,
2929                                (v4i32 (scalar_to_vector GR32:$src)),(iPTR 0)))),
2930             (SUBREG_TO_REG (i32 0), (VMOVDI2PDIZrr GR32:$src), sub_xmm)>;
2931   def : Pat<(v4i64 (X86vzmovl (insert_subvector undef,
2932                                (v2i64 (scalar_to_vector GR64:$src)),(iPTR 0)))),
2933             (SUBREG_TO_REG (i64 0), (VMOV64toPQIZrr GR64:$src), sub_xmm)>;
2934 }
2935
2936 def : Pat<(v16i32 (X86Vinsert (v16i32 immAllZerosV), GR32:$src2, (iPTR 0))),
2937         (SUBREG_TO_REG (i32 0), (VMOVDI2PDIZrr GR32:$src2), sub_xmm)>;
2938
2939 def : Pat<(v8i64 (X86Vinsert (bc_v8i64 (v16i32 immAllZerosV)), GR64:$src2, (iPTR 0))),
2940         (SUBREG_TO_REG (i32 0), (VMOV64toPQIZrr GR64:$src2), sub_xmm)>;
2941
2942 def : Pat<(v16i32 (X86Vinsert undef, GR32:$src2, (iPTR 0))),
2943         (SUBREG_TO_REG (i32 0), (VMOVDI2PDIZrr GR32:$src2), sub_xmm)>;
2944
2945 def : Pat<(v8i64 (X86Vinsert undef, GR64:$src2, (iPTR 0))),
2946         (SUBREG_TO_REG (i32 0), (VMOV64toPQIZrr GR64:$src2), sub_xmm)>;
2947
2948 //===----------------------------------------------------------------------===//
2949 // AVX-512 - Non-temporals
2950 //===----------------------------------------------------------------------===//
2951 let SchedRW = [WriteLoad] in {
2952   def VMOVNTDQAZrm : AVX512PI<0x2A, MRMSrcMem, (outs VR512:$dst),
2953                         (ins i512mem:$src), "vmovntdqa\t{$src, $dst|$dst, $src}",
2954                         [(set VR512:$dst, (int_x86_avx512_movntdqa addr:$src))],
2955                         SSEPackedInt>, EVEX, T8PD, EVEX_V512,
2956                         EVEX_CD8<64, CD8VF>;
2957
2958   let Predicates = [HasAVX512, HasVLX] in {
2959     def VMOVNTDQAZ256rm : AVX512PI<0x2A, MRMSrcMem, (outs VR256X:$dst),
2960                              (ins i256mem:$src),
2961                              "vmovntdqa\t{$src, $dst|$dst, $src}", [],
2962                              SSEPackedInt>, EVEX, T8PD, EVEX_V256,
2963                              EVEX_CD8<64, CD8VF>;
2964
2965     def VMOVNTDQAZ128rm : AVX512PI<0x2A, MRMSrcMem, (outs VR128X:$dst),
2966                              (ins i128mem:$src),
2967                              "vmovntdqa\t{$src, $dst|$dst, $src}", [],
2968                              SSEPackedInt>, EVEX, T8PD, EVEX_V128,
2969                              EVEX_CD8<64, CD8VF>;
2970   }
2971 }
2972
2973 multiclass avx512_movnt<bits<8> opc, string OpcodeStr, PatFrag st_frag,
2974                         ValueType OpVT, RegisterClass RC, X86MemOperand memop,
2975                         Domain d, InstrItinClass itin = IIC_SSE_MOVNT> {
2976   let SchedRW = [WriteStore], mayStore = 1,
2977       AddedComplexity = 400 in
2978   def mr : AVX512PI<opc, MRMDestMem, (outs), (ins memop:$dst, RC:$src),
2979                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
2980                     [(st_frag (OpVT RC:$src), addr:$dst)], d, itin>, EVEX;
2981 }
2982
2983 multiclass avx512_movnt_vl<bits<8> opc, string OpcodeStr, PatFrag st_frag,
2984                            string elty, string elsz, string vsz512,
2985                            string vsz256, string vsz128, Domain d,
2986                            Predicate prd, InstrItinClass itin = IIC_SSE_MOVNT> {
2987   let Predicates = [prd] in
2988   defm Z : avx512_movnt<opc, OpcodeStr, st_frag,
2989                         !cast<ValueType>("v"##vsz512##elty##elsz), VR512,
2990                         !cast<X86MemOperand>(elty##"512mem"), d, itin>,
2991                         EVEX_V512;
2992
2993   let Predicates = [prd, HasVLX] in {
2994     defm Z256 : avx512_movnt<opc, OpcodeStr, st_frag,
2995                              !cast<ValueType>("v"##vsz256##elty##elsz), VR256X,
2996                              !cast<X86MemOperand>(elty##"256mem"), d, itin>,
2997                              EVEX_V256;
2998
2999     defm Z128 : avx512_movnt<opc, OpcodeStr, st_frag,
3000                              !cast<ValueType>("v"##vsz128##elty##elsz), VR128X,
3001                              !cast<X86MemOperand>(elty##"128mem"), d, itin>,
3002                              EVEX_V128;
3003   }
3004 }
3005
3006 defm VMOVNTDQ : avx512_movnt_vl<0xE7, "vmovntdq", alignednontemporalstore,
3007                                 "i", "64", "8", "4", "2", SSEPackedInt,
3008                                 HasAVX512>, PD, EVEX_CD8<64, CD8VF>;
3009
3010 defm VMOVNTPD : avx512_movnt_vl<0x2B, "vmovntpd", alignednontemporalstore,
3011                                 "f", "64", "8", "4", "2", SSEPackedDouble,
3012                                 HasAVX512>, PD, VEX_W, EVEX_CD8<64, CD8VF>;
3013
3014 defm VMOVNTPS : avx512_movnt_vl<0x2B, "vmovntps", alignednontemporalstore,
3015                                 "f", "32", "16", "8", "4", SSEPackedSingle,
3016                                 HasAVX512>, PS, EVEX_CD8<32, CD8VF>;
3017
3018 //===----------------------------------------------------------------------===//
3019 // AVX-512 - Integer arithmetic
3020 //
3021 multiclass avx512_binop_rm<bits<8> opc, string OpcodeStr, SDNode OpNode,
3022                            X86VectorVTInfo _, OpndItins itins,
3023                            bit IsCommutable = 0> {
3024   defm rr : AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
3025                     (ins _.RC:$src1, _.RC:$src2), OpcodeStr##_.Suffix,
3026                     "$src2, $src1", "$src1, $src2",
3027                     (_.VT (OpNode _.RC:$src1, _.RC:$src2)),
3028                     itins.rr, IsCommutable>,
3029             AVX512BIBase, EVEX_4V;
3030
3031   let mayLoad = 1 in
3032     defm rm : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3033                     (ins _.RC:$src1, _.MemOp:$src2), OpcodeStr##_.Suffix,
3034                     "$src2, $src1", "$src1, $src2",
3035                     (_.VT (OpNode _.RC:$src1,
3036                                   (bitconvert (_.LdFrag addr:$src2)))),
3037                     itins.rm>,
3038               AVX512BIBase, EVEX_4V;
3039 }
3040
3041 multiclass avx512_binop_rmb<bits<8> opc, string OpcodeStr, SDNode OpNode,
3042                             X86VectorVTInfo _, OpndItins itins,
3043                             bit IsCommutable = 0> :
3044            avx512_binop_rm<opc, OpcodeStr, OpNode, _, itins, IsCommutable> {
3045   let mayLoad = 1 in
3046     defm rmb : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3047                     (ins _.RC:$src1, _.ScalarMemOp:$src2), OpcodeStr##_.Suffix,
3048                     "${src2}"##_.BroadcastStr##", $src1",
3049                     "$src1, ${src2}"##_.BroadcastStr,
3050                     (_.VT (OpNode _.RC:$src1,
3051                                   (X86VBroadcast
3052                                       (_.ScalarLdFrag addr:$src2)))),
3053                     itins.rm>,
3054                AVX512BIBase, EVEX_4V, EVEX_B;
3055 }
3056
3057 multiclass avx512_binop_rm_vl<bits<8> opc, string OpcodeStr, SDNode OpNode,
3058                               AVX512VLVectorVTInfo VTInfo, OpndItins itins,
3059                               Predicate prd, bit IsCommutable = 0> {
3060   let Predicates = [prd] in
3061     defm Z : avx512_binop_rm<opc, OpcodeStr, OpNode, VTInfo.info512, itins,
3062                              IsCommutable>, EVEX_V512;
3063
3064   let Predicates = [prd, HasVLX] in {
3065     defm Z256 : avx512_binop_rm<opc, OpcodeStr, OpNode, VTInfo.info256, itins,
3066                              IsCommutable>, EVEX_V256;
3067     defm Z128 : avx512_binop_rm<opc, OpcodeStr, OpNode, VTInfo.info128, itins,
3068                              IsCommutable>, EVEX_V128;
3069   }
3070 }
3071
3072 multiclass avx512_binop_rmb_vl<bits<8> opc, string OpcodeStr, SDNode OpNode,
3073                                AVX512VLVectorVTInfo VTInfo, OpndItins itins,
3074                                Predicate prd, bit IsCommutable = 0> {
3075   let Predicates = [prd] in
3076     defm Z : avx512_binop_rmb<opc, OpcodeStr, OpNode, VTInfo.info512, itins,
3077                              IsCommutable>, EVEX_V512;
3078
3079   let Predicates = [prd, HasVLX] in {
3080     defm Z256 : avx512_binop_rmb<opc, OpcodeStr, OpNode, VTInfo.info256, itins,
3081                              IsCommutable>, EVEX_V256;
3082     defm Z128 : avx512_binop_rmb<opc, OpcodeStr, OpNode, VTInfo.info128, itins,
3083                              IsCommutable>, EVEX_V128;
3084   }
3085 }
3086
3087 multiclass avx512_binop_rm_vl_q<bits<8> opc, string OpcodeStr, SDNode OpNode,
3088                                 OpndItins itins, Predicate prd,
3089                                 bit IsCommutable = 0> {
3090   defm NAME : avx512_binop_rmb_vl<opc, OpcodeStr, OpNode, avx512vl_i64_info,
3091                                itins, prd, IsCommutable>,
3092                                VEX_W, EVEX_CD8<64, CD8VF>;
3093 }
3094
3095 multiclass avx512_binop_rm_vl_d<bits<8> opc, string OpcodeStr, SDNode OpNode,
3096                                 OpndItins itins, Predicate prd,
3097                                 bit IsCommutable = 0> {
3098   defm NAME : avx512_binop_rmb_vl<opc, OpcodeStr, OpNode, avx512vl_i32_info,
3099                                itins, prd, IsCommutable>, EVEX_CD8<32, CD8VF>;
3100 }
3101
3102 multiclass avx512_binop_rm_vl_w<bits<8> opc, string OpcodeStr, SDNode OpNode,
3103                                 OpndItins itins, Predicate prd,
3104                                 bit IsCommutable = 0> {
3105   defm NAME : avx512_binop_rm_vl<opc, OpcodeStr, OpNode, avx512vl_i16_info,
3106                               itins, prd, IsCommutable>, EVEX_CD8<16, CD8VF>;
3107 }
3108
3109 multiclass avx512_binop_rm_vl_b<bits<8> opc, string OpcodeStr, SDNode OpNode,
3110                                 OpndItins itins, Predicate prd,
3111                                 bit IsCommutable = 0> {
3112   defm NAME : avx512_binop_rm_vl<opc, OpcodeStr, OpNode, avx512vl_i8_info,
3113                               itins, prd, IsCommutable>, EVEX_CD8<8, CD8VF>;
3114 }
3115
3116 multiclass avx512_binop_rm_vl_dq<bits<8> opc_d, bits<8> opc_q, string OpcodeStr,
3117                                  SDNode OpNode, OpndItins itins, Predicate prd,
3118                                  bit IsCommutable = 0> {
3119   defm Q : avx512_binop_rm_vl_q<opc_q, OpcodeStr, OpNode, itins, prd,
3120                                    IsCommutable>;
3121
3122   defm D : avx512_binop_rm_vl_d<opc_d, OpcodeStr, OpNode, itins, prd,
3123                                    IsCommutable>;
3124 }
3125
3126 multiclass avx512_binop_rm_vl_bw<bits<8> opc_b, bits<8> opc_w, string OpcodeStr,
3127                                  SDNode OpNode, OpndItins itins, Predicate prd,
3128                                  bit IsCommutable = 0> {
3129   defm W : avx512_binop_rm_vl_w<opc_w, OpcodeStr, OpNode, itins, prd,
3130                                    IsCommutable>;
3131
3132   defm B : avx512_binop_rm_vl_b<opc_b, OpcodeStr, OpNode, itins, prd,
3133                                    IsCommutable>;
3134 }
3135
3136 multiclass avx512_binop_rm_vl_all<bits<8> opc_b, bits<8> opc_w,
3137                                   bits<8> opc_d, bits<8> opc_q,
3138                                   string OpcodeStr, SDNode OpNode,
3139                                   OpndItins itins, bit IsCommutable = 0> {
3140   defm NAME : avx512_binop_rm_vl_dq<opc_d, opc_q, OpcodeStr, OpNode,
3141                                     itins, HasAVX512, IsCommutable>,
3142               avx512_binop_rm_vl_bw<opc_b, opc_w, OpcodeStr, OpNode,
3143                                     itins, HasBWI, IsCommutable>;
3144 }
3145
3146 multiclass avx512_binop_rm2<bits<8> opc, string OpcodeStr, OpndItins itins,
3147                             SDNode OpNode,X86VectorVTInfo _Src, 
3148                             X86VectorVTInfo _Dst, bit IsCommutable = 0> {
3149   defm rr : AVX512_maskable<opc, MRMSrcReg, _Dst, (outs _Dst.RC:$dst), 
3150                             (ins _Src.RC:$src1, _Src.RC:$src2), OpcodeStr,
3151                             "$src2, $src1","$src1, $src2", 
3152                             (_Dst.VT (OpNode 
3153                                          (_Src.VT _Src.RC:$src1), 
3154                                          (_Src.VT _Src.RC:$src2))),
3155                             itins.rr, IsCommutable>, 
3156                             AVX512BIBase, EVEX_4V;
3157   let mayLoad = 1 in {
3158       defm rm : AVX512_maskable<opc, MRMSrcMem, _Dst, (outs _Dst.RC:$dst),
3159                             (ins _Src.RC:$src1, _Src.MemOp:$src2), OpcodeStr,
3160                             "$src2, $src1", "$src1, $src2",
3161                             (_Dst.VT (OpNode (_Src.VT _Src.RC:$src1),
3162                                           (bitconvert (_Src.LdFrag addr:$src2)))),
3163                             itins.rm>,
3164                             AVX512BIBase, EVEX_4V;
3165
3166       defm rmb : AVX512_maskable<opc, MRMSrcMem, _Dst, (outs _Dst.RC:$dst),
3167                         (ins _Src.RC:$src1, _Dst.ScalarMemOp:$src2), 
3168                         OpcodeStr,
3169                         "${src2}"##_Dst.BroadcastStr##", $src1",
3170                          "$src1, ${src2}"##_Dst.BroadcastStr,
3171                         (_Dst.VT (OpNode (_Src.VT _Src.RC:$src1), (bitconvert 
3172                                      (_Dst.VT (X86VBroadcast 
3173                                               (_Dst.ScalarLdFrag addr:$src2)))))),
3174                         itins.rm>,
3175                         AVX512BIBase, EVEX_4V, EVEX_B;
3176   }
3177 }
3178
3179 defm VPADD : avx512_binop_rm_vl_all<0xFC, 0xFD, 0xFE, 0xD4, "vpadd", add,
3180                                     SSE_INTALU_ITINS_P, 1>;
3181 defm VPSUB : avx512_binop_rm_vl_all<0xF8, 0xF9, 0xFA, 0xFB, "vpsub", sub,
3182                                     SSE_INTALU_ITINS_P, 0>;
3183 defm VPADDS : avx512_binop_rm_vl_bw<0xEC, 0xED, "vpadds", X86adds,
3184                                     SSE_INTALU_ITINS_P, HasBWI, 1>;
3185 defm VPSUBS : avx512_binop_rm_vl_bw<0xE8, 0xE9, "vpsubs", X86subs,
3186                                     SSE_INTALU_ITINS_P, HasBWI, 0>;
3187 defm VPADDUS : avx512_binop_rm_vl_bw<0xDC, 0xDD, "vpaddus", X86addus,
3188                                     SSE_INTALU_ITINS_P, HasBWI, 1>;
3189 defm VPSUBUS : avx512_binop_rm_vl_bw<0xD8, 0xD9, "vpsubus", X86subus,
3190                                     SSE_INTALU_ITINS_P, HasBWI, 0>;
3191 defm VPMULLD : avx512_binop_rm_vl_d<0x40, "vpmull", mul,
3192                                    SSE_INTALU_ITINS_P, HasAVX512, 1>, T8PD;
3193 defm VPMULLW : avx512_binop_rm_vl_w<0xD5, "vpmull", mul,
3194                                    SSE_INTALU_ITINS_P, HasBWI, 1>;
3195 defm VPMULLQ : avx512_binop_rm_vl_q<0x40, "vpmull", mul,
3196                                    SSE_INTALU_ITINS_P, HasDQI, 1>, T8PD;
3197
3198                                    
3199 multiclass avx512_binop_all<bits<8> opc, string OpcodeStr, OpndItins itins,
3200                             SDNode OpNode, bit IsCommutable = 0> {
3201
3202   defm NAME#Z : avx512_binop_rm2<opc, OpcodeStr, itins, OpNode,
3203                                  v16i32_info, v8i64_info, IsCommutable>,
3204                                 EVEX_V512, EVEX_CD8<64, CD8VF>, VEX_W;
3205   let Predicates = [HasVLX] in {
3206     defm NAME#Z256 : avx512_binop_rm2<opc, OpcodeStr, itins, OpNode,
3207                                       v8i32x_info, v4i64x_info, IsCommutable>,
3208                                      EVEX_V256, EVEX_CD8<64, CD8VF>, VEX_W;
3209     defm NAME#Z128 : avx512_binop_rm2<opc, OpcodeStr, itins, OpNode,
3210                                       v4i32x_info, v2i64x_info, IsCommutable>,
3211                                      EVEX_V128, EVEX_CD8<64, CD8VF>, VEX_W;
3212   }
3213 }                            
3214
3215 defm VPMULDQ : avx512_binop_all<0x28, "vpmuldq", SSE_INTALU_ITINS_P,
3216                    X86pmuldq, 1>,T8PD;
3217 defm VPMULUDQ : avx512_binop_all<0xF4, "vpmuludq", SSE_INTMUL_ITINS_P,
3218                    X86pmuludq, 1>;
3219
3220 multiclass avx512_packs_rmb<bits<8> opc, string OpcodeStr, SDNode OpNode,
3221                             X86VectorVTInfo _Src, X86VectorVTInfo _Dst> {
3222   let mayLoad = 1 in {
3223       defm rmb : AVX512_maskable<opc, MRMSrcMem, _Dst, (outs _Dst.RC:$dst),
3224                         (ins _Src.RC:$src1, _Src.ScalarMemOp:$src2), 
3225                         OpcodeStr,
3226                         "${src2}"##_Src.BroadcastStr##", $src1",
3227                          "$src1, ${src2}"##_Src.BroadcastStr,
3228                         (_Dst.VT (OpNode (_Src.VT _Src.RC:$src1), (bitconvert 
3229                                      (_Src.VT (X86VBroadcast 
3230                                               (_Src.ScalarLdFrag addr:$src2))))))>,
3231                         EVEX_4V, EVEX_B, EVEX_CD8<_Src.EltSize, CD8VF>;
3232   }
3233 }
3234
3235 multiclass avx512_packs_rm<bits<8> opc, string OpcodeStr, 
3236                             SDNode OpNode,X86VectorVTInfo _Src, 
3237                             X86VectorVTInfo _Dst> {
3238   defm rr : AVX512_maskable<opc, MRMSrcReg, _Dst, (outs _Dst.RC:$dst), 
3239                             (ins _Src.RC:$src1, _Src.RC:$src2), OpcodeStr,
3240                             "$src2, $src1","$src1, $src2", 
3241                             (_Dst.VT (OpNode 
3242                                          (_Src.VT _Src.RC:$src1), 
3243                                          (_Src.VT _Src.RC:$src2)))>,
3244                             EVEX_CD8<_Src.EltSize, CD8VF>, EVEX_4V;
3245   let mayLoad = 1 in {
3246     defm rm : AVX512_maskable<opc, MRMSrcMem, _Dst, (outs _Dst.RC:$dst),
3247                           (ins _Src.RC:$src1, _Src.MemOp:$src2), OpcodeStr,
3248                           "$src2, $src1", "$src1, $src2",
3249                           (_Dst.VT (OpNode (_Src.VT _Src.RC:$src1),
3250                                         (bitconvert (_Src.LdFrag addr:$src2))))>,
3251                            EVEX_4V, EVEX_CD8<_Src.EltSize, CD8VF>;
3252   }
3253 }
3254
3255 multiclass avx512_packs_all_i32_i16<bits<8> opc, string OpcodeStr,
3256                                     SDNode OpNode> {
3257   defm NAME#Z : avx512_packs_rm<opc, OpcodeStr, OpNode, v16i32_info,
3258                                  v32i16_info>,
3259                 avx512_packs_rmb<opc, OpcodeStr, OpNode, v16i32_info,
3260                                  v32i16_info>, EVEX_V512;
3261   let Predicates = [HasVLX] in {
3262     defm NAME#Z256 : avx512_packs_rm<opc, OpcodeStr, OpNode, v8i32x_info,
3263                                      v16i16x_info>,
3264                      avx512_packs_rmb<opc, OpcodeStr, OpNode, v8i32x_info,
3265                                      v16i16x_info>, EVEX_V256;
3266     defm NAME#Z128 : avx512_packs_rm<opc, OpcodeStr, OpNode, v4i32x_info,
3267                                      v8i16x_info>,
3268                      avx512_packs_rmb<opc, OpcodeStr, OpNode, v4i32x_info,
3269                                      v8i16x_info>, EVEX_V128;
3270   }
3271 }
3272 multiclass avx512_packs_all_i16_i8<bits<8> opc, string OpcodeStr,
3273                             SDNode OpNode> {
3274   defm NAME#Z : avx512_packs_rm<opc, OpcodeStr, OpNode, v32i16_info,
3275                                 v64i8_info>, EVEX_V512;
3276   let Predicates = [HasVLX] in {
3277     defm NAME#Z256 : avx512_packs_rm<opc, OpcodeStr, OpNode, v16i16x_info,
3278                                     v32i8x_info>, EVEX_V256;
3279     defm NAME#Z128 : avx512_packs_rm<opc, OpcodeStr, OpNode, v8i16x_info,
3280                                     v16i8x_info>, EVEX_V128;
3281   }
3282 }
3283 let Predicates = [HasBWI] in {
3284   defm VPACKSSDW : avx512_packs_all_i32_i16<0x6B, "vpackssdw", X86Packss>, PD;
3285   defm VPACKUSDW : avx512_packs_all_i32_i16<0x2b, "vpackusdw", X86Packus>, T8PD;
3286   defm VPACKSSWB : avx512_packs_all_i16_i8 <0x63, "vpacksswb", X86Packss>, AVX512BIBase, VEX_W;
3287   defm VPACKUSWB : avx512_packs_all_i16_i8 <0x67, "vpackuswb", X86Packus>, AVX512BIBase, VEX_W;
3288 }
3289
3290 defm VPMAXSB : avx512_binop_rm_vl_b<0x3C, "vpmaxs", X86smax,
3291                                      SSE_INTALU_ITINS_P, HasBWI, 1>, T8PD;
3292 defm VPMAXSW : avx512_binop_rm_vl_w<0xEE, "vpmaxs", X86smax,
3293                                      SSE_INTALU_ITINS_P, HasBWI, 1>;
3294 defm VPMAXS : avx512_binop_rm_vl_dq<0x3D, 0x3D, "vpmaxs", X86smax,
3295                                      SSE_INTALU_ITINS_P, HasAVX512, 1>, T8PD;
3296
3297 defm VPMAXUB : avx512_binop_rm_vl_b<0xDE, "vpmaxu", X86umax,
3298                                      SSE_INTALU_ITINS_P, HasBWI, 1>;
3299 defm VPMAXUW : avx512_binop_rm_vl_w<0x3E, "vpmaxu", X86umax,
3300                                      SSE_INTALU_ITINS_P, HasBWI, 1>, T8PD;
3301 defm VPMAXU : avx512_binop_rm_vl_dq<0x3F, 0x3F, "vpmaxu", X86umax,
3302                                      SSE_INTALU_ITINS_P, HasAVX512, 1>, T8PD;
3303
3304 defm VPMINSB : avx512_binop_rm_vl_b<0x38, "vpmins", X86smin,
3305                                      SSE_INTALU_ITINS_P, HasBWI, 1>, T8PD;
3306 defm VPMINSW : avx512_binop_rm_vl_w<0xEA, "vpmins", X86smin,
3307                                      SSE_INTALU_ITINS_P, HasBWI, 1>;
3308 defm VPMINS : avx512_binop_rm_vl_dq<0x39, 0x39, "vpmins", X86smin,
3309                                      SSE_INTALU_ITINS_P, HasAVX512, 1>, T8PD;
3310
3311 defm VPMINUB : avx512_binop_rm_vl_b<0xDA, "vpminu", X86umin,
3312                                      SSE_INTALU_ITINS_P, HasBWI, 1>;
3313 defm VPMINUW : avx512_binop_rm_vl_w<0x3A, "vpminu", X86umin,
3314                                      SSE_INTALU_ITINS_P, HasBWI, 1>, T8PD;
3315 defm VPMINU : avx512_binop_rm_vl_dq<0x3B, 0x3B, "vpminu", X86umin,
3316                                      SSE_INTALU_ITINS_P, HasAVX512, 1>, T8PD;
3317
3318 def : Pat <(v16i32 (int_x86_avx512_mask_pmaxs_d_512 (v16i32 VR512:$src1),
3319                     (v16i32 VR512:$src2), (v16i32 immAllZerosV), (i16 -1))),
3320            (VPMAXSDZrr VR512:$src1, VR512:$src2)>;
3321 def : Pat <(v16i32 (int_x86_avx512_mask_pmaxu_d_512 (v16i32 VR512:$src1),
3322                     (v16i32 VR512:$src2), (v16i32 immAllZerosV), (i16 -1))),
3323            (VPMAXUDZrr VR512:$src1, VR512:$src2)>;
3324 def : Pat <(v8i64 (int_x86_avx512_mask_pmaxs_q_512 (v8i64 VR512:$src1),
3325                 (v8i64 VR512:$src2), (bc_v8i64 (v16i32 immAllZerosV)), (i8 -1))),
3326            (VPMAXSQZrr VR512:$src1, VR512:$src2)>;
3327 def : Pat <(v8i64 (int_x86_avx512_mask_pmaxu_q_512 (v8i64 VR512:$src1),
3328                 (v8i64 VR512:$src2), (bc_v8i64 (v16i32 immAllZerosV)), (i8 -1))),
3329            (VPMAXUQZrr VR512:$src1, VR512:$src2)>;
3330 def : Pat <(v16i32 (int_x86_avx512_mask_pmins_d_512 (v16i32 VR512:$src1),
3331                     (v16i32 VR512:$src2), (v16i32 immAllZerosV), (i16 -1))),
3332            (VPMINSDZrr VR512:$src1, VR512:$src2)>;
3333 def : Pat <(v16i32 (int_x86_avx512_mask_pminu_d_512 (v16i32 VR512:$src1),
3334                     (v16i32 VR512:$src2), (v16i32 immAllZerosV), (i16 -1))),
3335            (VPMINUDZrr VR512:$src1, VR512:$src2)>;
3336 def : Pat <(v8i64 (int_x86_avx512_mask_pmins_q_512 (v8i64 VR512:$src1),
3337                 (v8i64 VR512:$src2), (bc_v8i64 (v16i32 immAllZerosV)), (i8 -1))),
3338            (VPMINSQZrr VR512:$src1, VR512:$src2)>;
3339 def : Pat <(v8i64 (int_x86_avx512_mask_pminu_q_512 (v8i64 VR512:$src1),
3340                 (v8i64 VR512:$src2), (bc_v8i64 (v16i32 immAllZerosV)), (i8 -1))),
3341            (VPMINUQZrr VR512:$src1, VR512:$src2)>;
3342 //===----------------------------------------------------------------------===//
3343 // AVX-512 - Unpack Instructions
3344 //===----------------------------------------------------------------------===//
3345
3346 multiclass avx512_unpack_fp<bits<8> opc, SDNode OpNode, ValueType vt,
3347                                    PatFrag mem_frag, RegisterClass RC,
3348                                    X86MemOperand x86memop, string asm,
3349                                    Domain d> {
3350     def rr : AVX512PI<opc, MRMSrcReg,
3351                 (outs RC:$dst), (ins RC:$src1, RC:$src2),
3352                 asm, [(set RC:$dst,
3353                            (vt (OpNode RC:$src1, RC:$src2)))],
3354                            d>, EVEX_4V;
3355     def rm : AVX512PI<opc, MRMSrcMem,
3356                 (outs RC:$dst), (ins RC:$src1, x86memop:$src2),
3357                 asm, [(set RC:$dst,
3358                        (vt (OpNode RC:$src1,
3359                             (bitconvert (mem_frag addr:$src2)))))],
3360                         d>, EVEX_4V;
3361 }
3362
3363 defm VUNPCKHPSZ: avx512_unpack_fp<0x15, X86Unpckh, v16f32, loadv8f64,
3364       VR512, f512mem, "vunpckhps\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3365       SSEPackedSingle>, PS, EVEX_V512, EVEX_CD8<32, CD8VF>;
3366 defm VUNPCKHPDZ: avx512_unpack_fp<0x15, X86Unpckh, v8f64, loadv8f64,
3367       VR512, f512mem, "vunpckhpd\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3368       SSEPackedDouble>, PD, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
3369 defm VUNPCKLPSZ: avx512_unpack_fp<0x14, X86Unpckl, v16f32, loadv8f64,
3370       VR512, f512mem, "vunpcklps\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3371       SSEPackedSingle>, PS, EVEX_V512, EVEX_CD8<32, CD8VF>;
3372 defm VUNPCKLPDZ: avx512_unpack_fp<0x14, X86Unpckl, v8f64, loadv8f64,
3373       VR512, f512mem, "vunpcklpd\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3374       SSEPackedDouble>, PD, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
3375
3376 multiclass avx512_unpack_int<bits<8> opc, string OpcodeStr, SDNode OpNode,
3377                         ValueType OpVT, RegisterClass RC, PatFrag memop_frag,
3378                         X86MemOperand x86memop> {
3379   def rr : AVX512BI<opc, MRMSrcReg, (outs RC:$dst),
3380        (ins RC:$src1, RC:$src2),
3381        !strconcat(OpcodeStr, "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
3382        [(set RC:$dst, (OpVT (OpNode (OpVT RC:$src1), (OpVT RC:$src2))))],
3383        IIC_SSE_UNPCK>, EVEX_4V;
3384   def rm : AVX512BI<opc, MRMSrcMem, (outs RC:$dst),
3385        (ins RC:$src1, x86memop:$src2),
3386        !strconcat(OpcodeStr, "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
3387        [(set RC:$dst, (OpVT (OpNode (OpVT RC:$src1),
3388                                      (bitconvert (memop_frag addr:$src2)))))],
3389                                      IIC_SSE_UNPCK>, EVEX_4V;
3390 }
3391 defm VPUNPCKLDQZ  : avx512_unpack_int<0x62, "vpunpckldq", X86Unpckl, v16i32,
3392                                 VR512, loadv16i32, i512mem>, EVEX_V512,
3393                                 EVEX_CD8<32, CD8VF>;
3394 defm VPUNPCKLQDQZ : avx512_unpack_int<0x6C, "vpunpcklqdq", X86Unpckl, v8i64,
3395                                 VR512, loadv8i64, i512mem>, EVEX_V512,
3396                                 VEX_W, EVEX_CD8<64, CD8VF>;
3397 defm VPUNPCKHDQZ  : avx512_unpack_int<0x6A, "vpunpckhdq", X86Unpckh, v16i32,
3398                                 VR512, loadv16i32, i512mem>, EVEX_V512,
3399                                 EVEX_CD8<32, CD8VF>;
3400 defm VPUNPCKHQDQZ : avx512_unpack_int<0x6D, "vpunpckhqdq", X86Unpckh, v8i64,
3401                                 VR512, loadv8i64, i512mem>, EVEX_V512,
3402                                 VEX_W, EVEX_CD8<64, CD8VF>;
3403 //===----------------------------------------------------------------------===//
3404 // AVX-512 - PSHUFD
3405 //
3406
3407 multiclass avx512_pshuf_imm<bits<8> opc, string OpcodeStr, RegisterClass RC,
3408                          SDNode OpNode, PatFrag mem_frag,
3409                          X86MemOperand x86memop, ValueType OpVT> {
3410   def ri : AVX512Ii8<opc, MRMSrcReg, (outs RC:$dst),
3411                      (ins RC:$src1, u8imm:$src2),
3412                      !strconcat(OpcodeStr,
3413                          "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
3414                      [(set RC:$dst,
3415                        (OpVT (OpNode RC:$src1, (i8 imm:$src2))))]>,
3416                      EVEX;
3417   def mi : AVX512Ii8<opc, MRMSrcMem, (outs RC:$dst),
3418                      (ins x86memop:$src1, u8imm:$src2),
3419                      !strconcat(OpcodeStr,
3420                          "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
3421                      [(set RC:$dst,
3422                        (OpVT (OpNode (mem_frag addr:$src1),
3423                               (i8 imm:$src2))))]>, EVEX;
3424 }
3425
3426 defm VPSHUFDZ : avx512_pshuf_imm<0x70, "vpshufd", VR512, X86PShufd, loadv16i32,
3427                       i512mem, v16i32>, PD, EVEX_V512, EVEX_CD8<32, CD8VF>;
3428
3429 //===----------------------------------------------------------------------===//
3430 // AVX-512  Logical Instructions
3431 //===----------------------------------------------------------------------===//
3432
3433 defm VPAND : avx512_binop_rm_vl_dq<0xDB, 0xDB, "vpand", and,
3434                                   SSE_INTALU_ITINS_P, HasAVX512, 1>;
3435 defm VPOR : avx512_binop_rm_vl_dq<0xEB, 0xEB, "vpor", or,
3436                                   SSE_INTALU_ITINS_P, HasAVX512, 1>;
3437 defm VPXOR : avx512_binop_rm_vl_dq<0xEF, 0xEF, "vpxor", xor,
3438                                   SSE_INTALU_ITINS_P, HasAVX512, 1>;
3439 defm VPANDN : avx512_binop_rm_vl_dq<0xDF, 0xDF, "vpandn", X86andnp,
3440                                   SSE_INTALU_ITINS_P, HasAVX512, 0>;
3441
3442 //===----------------------------------------------------------------------===//
3443 // AVX-512  FP arithmetic
3444 //===----------------------------------------------------------------------===//
3445 multiclass avx512_fp_scalar<bits<8> opc, string OpcodeStr,X86VectorVTInfo _,
3446                          SDNode OpNode, SDNode VecNode, OpndItins itins,
3447                          bit IsCommutable> {
3448
3449   defm rr_Int : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
3450                            (ins _.RC:$src1, _.RC:$src2), OpcodeStr,
3451                            "$src2, $src1", "$src1, $src2",
3452                            (VecNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
3453                            (i32 FROUND_CURRENT)),
3454                            itins.rr, IsCommutable>;
3455
3456   defm rm_Int : AVX512_maskable_scalar<opc, MRMSrcMem, _, (outs _.RC:$dst),
3457                          (ins _.RC:$src1, _.MemOp:$src2), OpcodeStr,
3458                          "$src2, $src1", "$src1, $src2",
3459                          (VecNode (_.VT _.RC:$src1),
3460                           (_.VT (scalar_to_vector (_.ScalarLdFrag addr:$src2))),
3461                            (i32 FROUND_CURRENT)),
3462                          itins.rm, IsCommutable>;
3463   let isCodeGenOnly = 1, isCommutable = IsCommutable,
3464       Predicates = [HasAVX512] in {
3465   def rr : I< opc, MRMSrcReg, (outs _.FRC:$dst),
3466                          (ins _.FRC:$src1, _.FRC:$src2), 
3467                           OpcodeStr#"\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3468                           [(set _.FRC:$dst, (OpNode _.FRC:$src1, _.FRC:$src2))],
3469                           itins.rr>;
3470   def rm : I< opc, MRMSrcMem, (outs _.FRC:$dst),
3471                          (ins _.FRC:$src1, _.ScalarMemOp:$src2), 
3472                          OpcodeStr#"\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3473                          [(set _.FRC:$dst, (OpNode _.FRC:$src1,
3474                          (_.ScalarLdFrag addr:$src2)))], itins.rr>;
3475   }
3476 }
3477
3478 multiclass avx512_fp_scalar_round<bits<8> opc, string OpcodeStr,X86VectorVTInfo _,
3479                          SDNode VecNode, OpndItins itins, bit IsCommutable> {
3480
3481   defm rrb : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
3482                           (ins _.RC:$src1, _.RC:$src2, AVX512RC:$rc), OpcodeStr,
3483                           "$rc, $src2, $src1", "$src1, $src2, $rc",
3484                           (VecNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
3485                           (i32 imm:$rc)), itins.rr, IsCommutable>,
3486                           EVEX_B, EVEX_RC;
3487 }
3488 multiclass avx512_fp_scalar_sae<bits<8> opc, string OpcodeStr,X86VectorVTInfo _,
3489                          SDNode VecNode, OpndItins itins, bit IsCommutable> {
3490
3491   defm rrb : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
3492                             (ins _.RC:$src1, _.RC:$src2), OpcodeStr,
3493                             "{sae}, $src2, $src1", "$src1, $src2, {sae}",
3494                             (VecNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
3495                             (i32 FROUND_NO_EXC))>, EVEX_B;
3496 }
3497
3498 multiclass avx512_binop_s_round<bits<8> opc, string OpcodeStr, SDNode OpNode,
3499                                   SDNode VecNode,
3500                                   SizeItins itins, bit IsCommutable> {
3501   defm SSZ : avx512_fp_scalar<opc, OpcodeStr#"ss", f32x_info, OpNode, VecNode,
3502                               itins.s, IsCommutable>,
3503              avx512_fp_scalar_round<opc, OpcodeStr#"ss", f32x_info, VecNode,
3504                               itins.s, IsCommutable>,
3505                               XS, EVEX_4V, VEX_LIG,  EVEX_CD8<32, CD8VT1>;
3506   defm SDZ : avx512_fp_scalar<opc, OpcodeStr#"sd", f64x_info, OpNode, VecNode,
3507                               itins.d,                  IsCommutable>,
3508              avx512_fp_scalar_round<opc, OpcodeStr#"sd", f64x_info, VecNode,
3509                               itins.d, IsCommutable>,
3510                               XD, VEX_W, EVEX_4V, VEX_LIG, EVEX_CD8<64, CD8VT1>;
3511 }
3512
3513 multiclass avx512_binop_s_sae<bits<8> opc, string OpcodeStr, SDNode OpNode,
3514                                   SDNode VecNode,
3515                                   SizeItins itins, bit IsCommutable> {
3516   defm SSZ : avx512_fp_scalar<opc, OpcodeStr#"ss", f32x_info, OpNode, VecNode,
3517                               itins.s, IsCommutable>,
3518              avx512_fp_scalar_sae<opc, OpcodeStr#"ss", f32x_info, VecNode,
3519                               itins.s, IsCommutable>,
3520                               XS, EVEX_4V, VEX_LIG,  EVEX_CD8<32, CD8VT1>;
3521   defm SDZ : avx512_fp_scalar<opc, OpcodeStr#"sd", f64x_info, OpNode, VecNode,
3522                               itins.d,                  IsCommutable>,
3523              avx512_fp_scalar_sae<opc, OpcodeStr#"sd", f64x_info, VecNode,
3524                               itins.d, IsCommutable>,
3525                               XD, VEX_W, EVEX_4V, VEX_LIG, EVEX_CD8<64, CD8VT1>;
3526 }
3527 defm VADD : avx512_binop_s_round<0x58, "vadd", fadd, X86faddRnd, SSE_ALU_ITINS_S, 1>;
3528 defm VMUL : avx512_binop_s_round<0x59, "vmul", fmul, X86fmulRnd, SSE_ALU_ITINS_S, 1>;
3529 defm VSUB : avx512_binop_s_round<0x5C, "vsub", fsub, X86fsubRnd, SSE_ALU_ITINS_S, 0>;
3530 defm VDIV : avx512_binop_s_round<0x5E, "vdiv", fdiv, X86fdivRnd, SSE_ALU_ITINS_S, 0>;
3531 defm VMIN : avx512_binop_s_sae  <0x5D, "vmin", X86fmin, X86fminRnd, SSE_ALU_ITINS_S, 1>;
3532 defm VMAX : avx512_binop_s_sae  <0x5F, "vmax", X86fmax, X86fmaxRnd, SSE_ALU_ITINS_S, 1>;
3533
3534 multiclass avx512_fp_packed<bits<8> opc, string OpcodeStr, SDNode OpNode,
3535                             X86VectorVTInfo _, bit IsCommutable> {
3536   defm rr: AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
3537                   (ins _.RC:$src1, _.RC:$src2), OpcodeStr##_.Suffix,
3538                   "$src2, $src1", "$src1, $src2",
3539                   (_.VT (OpNode _.RC:$src1, _.RC:$src2))>, EVEX_4V;
3540   let mayLoad = 1 in {
3541     defm rm: AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3542                     (ins _.RC:$src1, _.MemOp:$src2), OpcodeStr##_.Suffix,
3543                     "$src2, $src1", "$src1, $src2",
3544                     (OpNode _.RC:$src1, (_.LdFrag addr:$src2))>, EVEX_4V;
3545     defm rmb: AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3546                      (ins _.RC:$src1, _.ScalarMemOp:$src2), OpcodeStr##_.Suffix,
3547                      "${src2}"##_.BroadcastStr##", $src1",
3548                      "$src1, ${src2}"##_.BroadcastStr,
3549                      (OpNode  _.RC:$src1, (_.VT (X86VBroadcast
3550                                                 (_.ScalarLdFrag addr:$src2))))>,
3551                      EVEX_4V, EVEX_B;
3552   }//let mayLoad = 1
3553 }
3554
3555 multiclass avx512_fp_round_packed<bits<8> opc, string OpcodeStr, SDNode OpNodeRnd,
3556                             X86VectorVTInfo _, bit IsCommutable> {
3557   defm rb: AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
3558                   (ins _.RC:$src1, _.RC:$src2, AVX512RC:$rc), OpcodeStr##_.Suffix,
3559                   "$rc, $src2, $src1", "$src1, $src2, $rc",
3560                   (_.VT (OpNodeRnd _.RC:$src1, _.RC:$src2, (i32 imm:$rc)))>,
3561                   EVEX_4V, EVEX_B, EVEX_RC;
3562 }
3563
3564
3565 multiclass avx512_fp_sae_packed<bits<8> opc, string OpcodeStr, SDNode OpNodeRnd,
3566                             X86VectorVTInfo _, bit IsCommutable> {
3567   defm rb: AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
3568                   (ins _.RC:$src1, _.RC:$src2), OpcodeStr##_.Suffix,
3569                   "{sae}, $src2, $src1", "$src1, $src2, {sae}",
3570                   (_.VT (OpNodeRnd _.RC:$src1, _.RC:$src2, (i32 FROUND_NO_EXC)))>,
3571                   EVEX_4V, EVEX_B;
3572 }
3573
3574 multiclass avx512_fp_binop_p<bits<8> opc, string OpcodeStr, SDNode OpNode, 
3575                              bit IsCommutable = 0> {
3576   defm PSZ : avx512_fp_packed<opc, OpcodeStr, OpNode, v16f32_info,
3577                               IsCommutable>, EVEX_V512, PS,
3578                               EVEX_CD8<32, CD8VF>;
3579   defm PDZ : avx512_fp_packed<opc, OpcodeStr, OpNode, v8f64_info,
3580                               IsCommutable>, EVEX_V512, PD, VEX_W,
3581                               EVEX_CD8<64, CD8VF>;
3582
3583     // Define only if AVX512VL feature is present.
3584   let Predicates = [HasVLX] in {
3585     defm PSZ128 : avx512_fp_packed<opc, OpcodeStr, OpNode, v4f32x_info,
3586                                    IsCommutable>, EVEX_V128, PS,
3587                                    EVEX_CD8<32, CD8VF>;
3588     defm PSZ256 : avx512_fp_packed<opc, OpcodeStr, OpNode, v8f32x_info,
3589                                    IsCommutable>, EVEX_V256, PS,
3590                                    EVEX_CD8<32, CD8VF>;
3591     defm PDZ128 : avx512_fp_packed<opc, OpcodeStr, OpNode, v2f64x_info,
3592                                    IsCommutable>, EVEX_V128, PD, VEX_W,
3593                                    EVEX_CD8<64, CD8VF>;
3594     defm PDZ256 : avx512_fp_packed<opc, OpcodeStr, OpNode, v4f64x_info,
3595                                    IsCommutable>, EVEX_V256, PD, VEX_W,
3596                                    EVEX_CD8<64, CD8VF>;
3597   }
3598 }
3599
3600 multiclass avx512_fp_binop_p_round<bits<8> opc, string OpcodeStr, SDNode OpNodeRnd> {
3601   defm PSZ : avx512_fp_round_packed<opc, OpcodeStr, OpNodeRnd, v16f32_info, 0>,
3602                               EVEX_V512, PS, EVEX_CD8<32, CD8VF>;
3603   defm PDZ : avx512_fp_round_packed<opc, OpcodeStr, OpNodeRnd, v8f64_info, 0>,
3604                               EVEX_V512, PD, VEX_W,EVEX_CD8<64, CD8VF>;
3605 }
3606
3607 multiclass avx512_fp_binop_p_sae<bits<8> opc, string OpcodeStr, SDNode OpNodeRnd> {
3608   defm PSZ : avx512_fp_sae_packed<opc, OpcodeStr, OpNodeRnd, v16f32_info, 0>,
3609                               EVEX_V512, PS, EVEX_CD8<32, CD8VF>;
3610   defm PDZ : avx512_fp_sae_packed<opc, OpcodeStr, OpNodeRnd, v8f64_info, 0>,
3611                               EVEX_V512, PD, VEX_W,EVEX_CD8<64, CD8VF>;
3612 }
3613
3614 defm VADD : avx512_fp_binop_p<0x58, "vadd", fadd, 1>,
3615             avx512_fp_binop_p_round<0x58, "vadd", X86faddRnd>;
3616 defm VMUL : avx512_fp_binop_p<0x59, "vmul", fmul, 1>,
3617             avx512_fp_binop_p_round<0x59, "vmul", X86fmulRnd>;
3618 defm VSUB : avx512_fp_binop_p<0x5C, "vsub", fsub>, 
3619             avx512_fp_binop_p_round<0x5C, "vsub", X86fsubRnd>;
3620 defm VDIV : avx512_fp_binop_p<0x5E, "vdiv", fdiv>,
3621             avx512_fp_binop_p_round<0x5E, "vdiv", X86fdivRnd>;
3622 defm VMIN : avx512_fp_binop_p<0x5D, "vmin", X86fmin, 1>,
3623             avx512_fp_binop_p_sae<0x5D, "vmin", X86fminRnd>;
3624 defm VMAX : avx512_fp_binop_p<0x5F, "vmax", X86fmax, 1>,
3625             avx512_fp_binop_p_sae<0x5F, "vmax", X86fmaxRnd>;
3626 let Predicates = [HasDQI] in {
3627   defm VAND  : avx512_fp_binop_p<0x54, "vand", X86fand, 1>;
3628   defm VANDN : avx512_fp_binop_p<0x55, "vandn", X86fandn, 0>;
3629   defm VOR   : avx512_fp_binop_p<0x56, "vor", X86for, 1>;
3630   defm VXOR  : avx512_fp_binop_p<0x57, "vxor", X86fxor, 1>;
3631 }
3632
3633 //===----------------------------------------------------------------------===//
3634 // AVX-512  VPTESTM instructions
3635 //===----------------------------------------------------------------------===//
3636
3637 multiclass avx512_vptest<bits<8> opc, string OpcodeStr, SDNode OpNode,
3638                             X86VectorVTInfo _> {
3639   defm rr : AVX512_maskable_cmp<opc, MRMSrcReg, _, (outs _.KRC:$dst),
3640                    (ins _.RC:$src1, _.RC:$src2), OpcodeStr,
3641                       "$src2, $src1", "$src1, $src2",
3642                    (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2))>,
3643                     EVEX_4V;
3644   let mayLoad = 1 in
3645   defm rm : AVX512_maskable_cmp<opc, MRMSrcMem, _, (outs _.KRC:$dst),
3646                    (ins _.RC:$src1, _.MemOp:$src2), OpcodeStr,
3647                        "$src2, $src1", "$src1, $src2",
3648                    (OpNode (_.VT _.RC:$src1), 
3649                     (_.VT (bitconvert (_.LdFrag addr:$src2))))>,
3650                     EVEX_4V,
3651                    EVEX_CD8<_.EltSize, CD8VF>;
3652 }
3653
3654 multiclass avx512_vptest_mb<bits<8> opc, string OpcodeStr, SDNode OpNode,
3655                             X86VectorVTInfo _> {
3656   let mayLoad = 1 in
3657   defm rmb : AVX512_maskable_cmp<opc, MRMSrcMem, _, (outs _.KRC:$dst),
3658                     (ins _.RC:$src1, _.ScalarMemOp:$src2), OpcodeStr,
3659                     "${src2}"##_.BroadcastStr##", $src1",
3660                     "$src1, ${src2}"##_.BroadcastStr,
3661                     (OpNode (_.VT _.RC:$src1), (_.VT (X86VBroadcast
3662                                                 (_.ScalarLdFrag addr:$src2))))>,
3663                     EVEX_B, EVEX_4V, EVEX_CD8<_.EltSize, CD8VF>;
3664 }
3665 multiclass avx512_vptest_dq_sizes<bits<8> opc, string OpcodeStr, SDNode OpNode,
3666                                   AVX512VLVectorVTInfo _> {
3667   let Predicates  = [HasAVX512] in
3668   defm Z : avx512_vptest<opc, OpcodeStr, OpNode, _.info512>,
3669            avx512_vptest_mb<opc, OpcodeStr, OpNode, _.info512>, EVEX_V512;
3670
3671   let Predicates = [HasAVX512, HasVLX] in {
3672   defm Z256 : avx512_vptest<opc, OpcodeStr, OpNode, _.info256>,
3673               avx512_vptest_mb<opc, OpcodeStr, OpNode, _.info256>, EVEX_V256;
3674   defm Z128 : avx512_vptest<opc, OpcodeStr, OpNode, _.info128>,
3675               avx512_vptest_mb<opc, OpcodeStr, OpNode, _.info128>, EVEX_V128;
3676   }
3677 }
3678
3679 multiclass avx512_vptest_dq<bits<8> opc, string OpcodeStr, SDNode OpNode> {
3680   defm D : avx512_vptest_dq_sizes<opc, OpcodeStr#"d", OpNode,
3681                                  avx512vl_i32_info>;
3682   defm Q : avx512_vptest_dq_sizes<opc, OpcodeStr#"q", OpNode,
3683                                  avx512vl_i64_info>, VEX_W;
3684 }
3685
3686 multiclass avx512_vptest_wb<bits<8> opc, string OpcodeStr,
3687                                  SDNode OpNode> {
3688   let Predicates = [HasBWI] in {
3689   defm WZ:    avx512_vptest<opc, OpcodeStr#"w", OpNode, v32i16_info>,
3690               EVEX_V512, VEX_W;
3691   defm BZ:    avx512_vptest<opc, OpcodeStr#"b", OpNode, v64i8_info>,
3692               EVEX_V512;
3693   }
3694   let Predicates = [HasVLX, HasBWI] in {
3695
3696   defm WZ256: avx512_vptest<opc, OpcodeStr#"w", OpNode, v16i16x_info>,
3697               EVEX_V256, VEX_W;
3698   defm WZ128: avx512_vptest<opc, OpcodeStr#"w", OpNode, v8i16x_info>,
3699               EVEX_V128, VEX_W;
3700   defm BZ256: avx512_vptest<opc, OpcodeStr#"b", OpNode, v32i8x_info>,
3701               EVEX_V256;
3702   defm BZ128: avx512_vptest<opc, OpcodeStr#"b", OpNode, v16i8x_info>,
3703               EVEX_V128;
3704   }
3705 }
3706
3707 multiclass avx512_vptest_all_forms<bits<8> opc_wb, bits<8> opc_dq, string OpcodeStr,
3708                                    SDNode OpNode> :
3709   avx512_vptest_wb <opc_wb, OpcodeStr, OpNode>,
3710   avx512_vptest_dq<opc_dq, OpcodeStr, OpNode>;
3711
3712 defm VPTESTM   : avx512_vptest_all_forms<0x26, 0x27, "vptestm", X86testm>, T8PD;
3713 defm VPTESTNM  : avx512_vptest_all_forms<0x26, 0x27, "vptestnm", X86testnm>, T8XS;
3714
3715 def : Pat <(i16 (int_x86_avx512_mask_ptestm_d_512 (v16i32 VR512:$src1),
3716                  (v16i32 VR512:$src2), (i16 -1))),
3717                  (COPY_TO_REGCLASS (VPTESTMDZrr VR512:$src1, VR512:$src2), GR16)>;
3718
3719 def : Pat <(i8 (int_x86_avx512_mask_ptestm_q_512 (v8i64 VR512:$src1),
3720                  (v8i64 VR512:$src2), (i8 -1))),
3721                  (COPY_TO_REGCLASS (VPTESTMQZrr VR512:$src1, VR512:$src2), GR8)>;
3722
3723 //===----------------------------------------------------------------------===//
3724 // AVX-512  Shift instructions
3725 //===----------------------------------------------------------------------===//
3726 multiclass avx512_shift_rmi<bits<8> opc, Format ImmFormR, Format ImmFormM,
3727                          string OpcodeStr, SDNode OpNode, X86VectorVTInfo _> {
3728   defm ri : AVX512_maskable<opc, ImmFormR, _, (outs _.RC:$dst),
3729                    (ins _.RC:$src1, u8imm:$src2), OpcodeStr,
3730                       "$src2, $src1", "$src1, $src2",
3731                    (_.VT (OpNode _.RC:$src1, (i8 imm:$src2))),
3732                    SSE_INTSHIFT_ITINS_P.rr>, AVX512BIi8Base, EVEX_4V;
3733   let mayLoad = 1 in
3734   defm mi : AVX512_maskable<opc, ImmFormM, _, (outs _.RC:$dst),
3735                    (ins _.MemOp:$src1, u8imm:$src2), OpcodeStr,
3736                        "$src2, $src1", "$src1, $src2",
3737                    (_.VT (OpNode (_.VT (bitconvert (_.LdFrag addr:$src1))),
3738                           (i8 imm:$src2))),
3739                    SSE_INTSHIFT_ITINS_P.rm>, AVX512BIi8Base, EVEX_4V;
3740 }
3741
3742 multiclass avx512_shift_rmbi<bits<8> opc, Format ImmFormM,
3743                          string OpcodeStr, SDNode OpNode, X86VectorVTInfo _> {
3744   let mayLoad = 1 in
3745   defm mbi : AVX512_maskable<opc, ImmFormM, _, (outs _.RC:$dst),
3746                    (ins _.ScalarMemOp:$src1, u8imm:$src2), OpcodeStr,
3747       "$src2, ${src1}"##_.BroadcastStr, "${src1}"##_.BroadcastStr##", $src2",
3748      (_.VT (OpNode (X86VBroadcast (_.ScalarLdFrag addr:$src1)), (i8 imm:$src2))),
3749      SSE_INTSHIFT_ITINS_P.rm>, AVX512BIi8Base, EVEX_4V, EVEX_B;
3750 }
3751
3752 multiclass avx512_shift_rrm<bits<8> opc, string OpcodeStr, SDNode OpNode,
3753                          ValueType SrcVT, PatFrag bc_frag, X86VectorVTInfo _> {
3754    // src2 is always 128-bit
3755   defm rr : AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
3756                    (ins _.RC:$src1, VR128X:$src2), OpcodeStr,
3757                       "$src2, $src1", "$src1, $src2",
3758                    (_.VT (OpNode _.RC:$src1, (SrcVT VR128X:$src2))),
3759                    SSE_INTSHIFT_ITINS_P.rr>, AVX512BIBase, EVEX_4V;
3760   defm rm : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3761                    (ins _.RC:$src1, i128mem:$src2), OpcodeStr,
3762                        "$src2, $src1", "$src1, $src2",
3763                    (_.VT (OpNode _.RC:$src1, (bc_frag (loadv2i64 addr:$src2)))),
3764                    SSE_INTSHIFT_ITINS_P.rm>, AVX512BIBase,
3765                    EVEX_4V;
3766 }
3767
3768 multiclass avx512_shift_sizes<bits<8> opc, string OpcodeStr, SDNode OpNode,
3769                                   ValueType SrcVT, PatFrag bc_frag,
3770                                   AVX512VLVectorVTInfo VTInfo, Predicate prd> {
3771   let Predicates = [prd] in
3772   defm Z    : avx512_shift_rrm<opc, OpcodeStr, OpNode, SrcVT, bc_frag,
3773                             VTInfo.info512>, EVEX_V512,
3774                             EVEX_CD8<VTInfo.info512.EltSize, CD8VQ> ;
3775   let Predicates = [prd, HasVLX] in {
3776   defm Z256 : avx512_shift_rrm<opc, OpcodeStr, OpNode, SrcVT, bc_frag,
3777                             VTInfo.info256>, EVEX_V256,
3778                             EVEX_CD8<VTInfo.info256.EltSize, CD8VH>;
3779   defm Z128 : avx512_shift_rrm<opc, OpcodeStr, OpNode, SrcVT, bc_frag,
3780                             VTInfo.info128>, EVEX_V128,
3781                             EVEX_CD8<VTInfo.info128.EltSize, CD8VF>;
3782   }
3783 }
3784
3785 multiclass avx512_shift_types<bits<8> opcd, bits<8> opcq, bits<8> opcw,
3786                               string OpcodeStr, SDNode OpNode> {
3787   defm D : avx512_shift_sizes<opcd, OpcodeStr#"d", OpNode, v4i32, bc_v4i32,
3788                                  avx512vl_i32_info, HasAVX512>;
3789   defm Q : avx512_shift_sizes<opcq, OpcodeStr#"q", OpNode, v2i64, bc_v2i64,
3790                                  avx512vl_i64_info, HasAVX512>, VEX_W;
3791   defm W : avx512_shift_sizes<opcw, OpcodeStr#"w", OpNode, v8i16, bc_v8i16,
3792                                  avx512vl_i16_info, HasBWI>;
3793 }
3794
3795 multiclass avx512_shift_rmi_sizes<bits<8> opc, Format ImmFormR, Format ImmFormM,
3796                                  string OpcodeStr, SDNode OpNode,
3797                                  AVX512VLVectorVTInfo VTInfo> {
3798   let Predicates = [HasAVX512] in
3799   defm Z:    avx512_shift_rmi<opc, ImmFormR, ImmFormM, OpcodeStr, OpNode,
3800                               VTInfo.info512>,
3801              avx512_shift_rmbi<opc, ImmFormM, OpcodeStr, OpNode,
3802                               VTInfo.info512>, EVEX_V512;
3803   let Predicates = [HasAVX512, HasVLX] in {
3804   defm Z256: avx512_shift_rmi<opc, ImmFormR, ImmFormM, OpcodeStr, OpNode,
3805                               VTInfo.info256>,
3806              avx512_shift_rmbi<opc, ImmFormM, OpcodeStr, OpNode,
3807                               VTInfo.info256>, EVEX_V256;
3808   defm Z128: avx512_shift_rmi<opc, ImmFormR, ImmFormM, OpcodeStr, OpNode,
3809                               VTInfo.info128>,
3810              avx512_shift_rmbi<opc, ImmFormM, OpcodeStr, OpNode, 
3811                               VTInfo.info128>, EVEX_V128;
3812   }
3813 }
3814
3815 multiclass avx512_shift_rmi_w<bits<8> opcw, 
3816                                  Format ImmFormR, Format ImmFormM,
3817                                  string OpcodeStr, SDNode OpNode> {
3818   let Predicates = [HasBWI] in
3819   defm WZ:    avx512_shift_rmi<opcw, ImmFormR, ImmFormM, OpcodeStr, OpNode,
3820                                v32i16_info>, EVEX_V512;
3821   let Predicates = [HasVLX, HasBWI] in {
3822   defm WZ256: avx512_shift_rmi<opcw, ImmFormR, ImmFormM, OpcodeStr, OpNode,
3823                                v16i16x_info>, EVEX_V256;
3824   defm WZ128: avx512_shift_rmi<opcw, ImmFormR, ImmFormM, OpcodeStr, OpNode,
3825                                v8i16x_info>, EVEX_V128;
3826   }
3827 }
3828
3829 multiclass avx512_shift_rmi_dq<bits<8> opcd, bits<8> opcq,
3830                                  Format ImmFormR, Format ImmFormM,
3831                                  string OpcodeStr, SDNode OpNode> {
3832   defm D: avx512_shift_rmi_sizes<opcd, ImmFormR, ImmFormM, OpcodeStr#"d", OpNode,
3833                                  avx512vl_i32_info>, EVEX_CD8<32, CD8VF>;
3834   defm Q: avx512_shift_rmi_sizes<opcq, ImmFormR, ImmFormM, OpcodeStr#"q", OpNode,
3835                                  avx512vl_i64_info>, EVEX_CD8<64, CD8VF>, VEX_W;
3836 }
3837
3838 defm VPSRL : avx512_shift_rmi_dq<0x72, 0x73, MRM2r, MRM2m, "vpsrl", X86vsrli>,
3839              avx512_shift_rmi_w<0x71, MRM2r, MRM2m, "vpsrlw", X86vsrli>;
3840
3841 defm VPSLL : avx512_shift_rmi_dq<0x72, 0x73, MRM6r, MRM6m, "vpsll", X86vshli>,
3842              avx512_shift_rmi_w<0x71, MRM6r, MRM6m, "vpsllw", X86vshli>;
3843
3844 defm VPSRA : avx512_shift_rmi_dq<0x72, 0x72, MRM4r, MRM4m, "vpsra", X86vsrai>,
3845              avx512_shift_rmi_w<0x71, MRM4r, MRM4m, "vpsraw", X86vsrai>;
3846
3847 defm VPROR : avx512_shift_rmi_dq<0x72, 0x72, MRM0r, MRM0m, "vpror", rotr>;
3848 defm VPROL : avx512_shift_rmi_dq<0x72, 0x72, MRM1r, MRM1m, "vprol", rotl>;
3849
3850 defm VPSLL : avx512_shift_types<0xF2, 0xF3, 0xF1, "vpsll", X86vshl>;
3851 defm VPSRA : avx512_shift_types<0xE2, 0xE2, 0xE1, "vpsra", X86vsra>;
3852 defm VPSRL : avx512_shift_types<0xD2, 0xD3, 0xD1, "vpsrl", X86vsrl>;
3853
3854 //===-------------------------------------------------------------------===//
3855 // Variable Bit Shifts
3856 //===-------------------------------------------------------------------===//
3857 multiclass avx512_var_shift<bits<8> opc, string OpcodeStr, SDNode OpNode,
3858                             X86VectorVTInfo _> {
3859   defm rr : AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
3860                    (ins _.RC:$src1, _.RC:$src2), OpcodeStr,
3861                       "$src2, $src1", "$src1, $src2",
3862                    (_.VT (OpNode _.RC:$src1, (_.VT _.RC:$src2))),
3863                    SSE_INTSHIFT_ITINS_P.rr>, AVX5128IBase, EVEX_4V;
3864   let mayLoad = 1 in
3865   defm rm : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3866                    (ins _.RC:$src1, _.MemOp:$src2), OpcodeStr,
3867                        "$src2, $src1", "$src1, $src2",
3868                    (_.VT (OpNode _.RC:$src1, (_.LdFrag addr:$src2))),
3869                    SSE_INTSHIFT_ITINS_P.rm>, AVX5128IBase, EVEX_4V,
3870                    EVEX_CD8<_.EltSize, CD8VF>;
3871 }
3872
3873 multiclass avx512_var_shift_mb<bits<8> opc, string OpcodeStr, SDNode OpNode,
3874                             X86VectorVTInfo _> {
3875   let mayLoad = 1 in
3876   defm rmb : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
3877                     (ins _.RC:$src1, _.ScalarMemOp:$src2), OpcodeStr,
3878                     "${src2}"##_.BroadcastStr##", $src1",
3879                     "$src1, ${src2}"##_.BroadcastStr,
3880                     (_.VT (OpNode _.RC:$src1, (_.VT (X86VBroadcast
3881                                                 (_.ScalarLdFrag addr:$src2))))),
3882                     SSE_INTSHIFT_ITINS_P.rm>, AVX5128IBase, EVEX_B,
3883                     EVEX_4V, EVEX_CD8<_.EltSize, CD8VF>;
3884 }
3885 multiclass avx512_var_shift_sizes<bits<8> opc, string OpcodeStr, SDNode OpNode,
3886                                   AVX512VLVectorVTInfo _> {
3887   let Predicates  = [HasAVX512] in
3888   defm Z : avx512_var_shift<opc, OpcodeStr, OpNode, _.info512>,
3889            avx512_var_shift_mb<opc, OpcodeStr, OpNode, _.info512>, EVEX_V512;
3890
3891   let Predicates = [HasAVX512, HasVLX] in {
3892   defm Z256 : avx512_var_shift<opc, OpcodeStr, OpNode, _.info256>,
3893               avx512_var_shift_mb<opc, OpcodeStr, OpNode, _.info256>, EVEX_V256;
3894   defm Z128 : avx512_var_shift<opc, OpcodeStr, OpNode, _.info128>,
3895               avx512_var_shift_mb<opc, OpcodeStr, OpNode, _.info128>, EVEX_V128;
3896   }
3897 }
3898
3899 multiclass avx512_var_shift_types<bits<8> opc, string OpcodeStr,
3900                                  SDNode OpNode> {
3901   defm D : avx512_var_shift_sizes<opc, OpcodeStr#"d", OpNode,
3902                                  avx512vl_i32_info>;
3903   defm Q : avx512_var_shift_sizes<opc, OpcodeStr#"q", OpNode,
3904                                  avx512vl_i64_info>, VEX_W;
3905 }
3906
3907 multiclass avx512_var_shift_w<bits<8> opc, string OpcodeStr,
3908                                  SDNode OpNode> {
3909   let Predicates = [HasBWI] in
3910   defm WZ:    avx512_var_shift<opc, OpcodeStr, OpNode, v32i16_info>,
3911               EVEX_V512, VEX_W;
3912   let Predicates = [HasVLX, HasBWI] in {
3913
3914   defm WZ256: avx512_var_shift<opc, OpcodeStr, OpNode, v16i16x_info>,
3915               EVEX_V256, VEX_W;
3916   defm WZ128: avx512_var_shift<opc, OpcodeStr, OpNode, v8i16x_info>,
3917               EVEX_V128, VEX_W;
3918   }
3919 }
3920
3921 defm VPSLLV : avx512_var_shift_types<0x47, "vpsllv", shl>,
3922               avx512_var_shift_w<0x12, "vpsllvw", shl>;
3923 defm VPSRAV : avx512_var_shift_types<0x46, "vpsrav", sra>,
3924               avx512_var_shift_w<0x11, "vpsravw", sra>;
3925 defm VPSRLV : avx512_var_shift_types<0x45, "vpsrlv", srl>,
3926               avx512_var_shift_w<0x10, "vpsrlvw", srl>;
3927 defm VPRORV : avx512_var_shift_types<0x14, "vprorv", rotr>;
3928 defm VPROLV : avx512_var_shift_types<0x15, "vprolv", rotl>;
3929
3930 //===----------------------------------------------------------------------===//
3931 // AVX-512 - MOVDDUP
3932 //===----------------------------------------------------------------------===//
3933
3934 multiclass avx512_movddup<string OpcodeStr, RegisterClass RC, ValueType VT,
3935                         X86MemOperand x86memop, PatFrag memop_frag> {
3936 def rr  : AVX512PDI<0x12, MRMSrcReg, (outs RC:$dst), (ins RC:$src),
3937                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
3938                     [(set RC:$dst, (VT (X86Movddup RC:$src)))]>, EVEX;
3939 def rm  : AVX512PDI<0x12, MRMSrcMem, (outs RC:$dst), (ins x86memop:$src),
3940                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
3941                     [(set RC:$dst,
3942                       (VT (X86Movddup (memop_frag addr:$src))))]>, EVEX;
3943 }
3944
3945 defm VMOVDDUPZ : avx512_movddup<"vmovddup", VR512, v8f64, f512mem, loadv8f64>,
3946                  VEX_W, EVEX_V512, EVEX_CD8<64, CD8VF>;
3947 def : Pat<(X86Movddup (v8f64 (scalar_to_vector (loadf64 addr:$src)))),
3948           (VMOVDDUPZrm addr:$src)>;
3949
3950 //===---------------------------------------------------------------------===//
3951 // Replicate Single FP - MOVSHDUP and MOVSLDUP
3952 //===---------------------------------------------------------------------===//
3953 multiclass avx512_replicate_sfp<bits<8> op, SDNode OpNode, string OpcodeStr,
3954                               ValueType vt, RegisterClass RC, PatFrag mem_frag,
3955                               X86MemOperand x86memop> {
3956   def rr : AVX512XSI<op, MRMSrcReg, (outs RC:$dst), (ins RC:$src),
3957                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
3958                       [(set RC:$dst, (vt (OpNode RC:$src)))]>, EVEX;
3959   let mayLoad = 1 in
3960   def rm : AVX512XSI<op, MRMSrcMem, (outs RC:$dst), (ins x86memop:$src),
3961                     !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
3962                       [(set RC:$dst, (OpNode (mem_frag addr:$src)))]>, EVEX;
3963 }
3964
3965 defm VMOVSHDUPZ  : avx512_replicate_sfp<0x16, X86Movshdup, "vmovshdup",
3966                        v16f32, VR512, loadv16f32, f512mem>, EVEX_V512,
3967                        EVEX_CD8<32, CD8VF>;
3968 defm VMOVSLDUPZ  : avx512_replicate_sfp<0x12, X86Movsldup, "vmovsldup",
3969                        v16f32, VR512, loadv16f32, f512mem>, EVEX_V512,
3970                        EVEX_CD8<32, CD8VF>;
3971
3972 def : Pat<(v16i32 (X86Movshdup VR512:$src)), (VMOVSHDUPZrr VR512:$src)>;
3973 def : Pat<(v16i32 (X86Movshdup (loadv16i32 addr:$src))),
3974            (VMOVSHDUPZrm addr:$src)>;
3975 def : Pat<(v16i32 (X86Movsldup VR512:$src)), (VMOVSLDUPZrr VR512:$src)>;
3976 def : Pat<(v16i32 (X86Movsldup (loadv16i32 addr:$src))),
3977            (VMOVSLDUPZrm addr:$src)>;
3978
3979 //===----------------------------------------------------------------------===//
3980 // Move Low to High and High to Low packed FP Instructions
3981 //===----------------------------------------------------------------------===//
3982 def VMOVLHPSZrr : AVX512PSI<0x16, MRMSrcReg, (outs VR128X:$dst),
3983           (ins VR128X:$src1, VR128X:$src2),
3984           "vmovlhps\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3985           [(set VR128X:$dst, (v4f32 (X86Movlhps VR128X:$src1, VR128X:$src2)))],
3986            IIC_SSE_MOV_LH>, EVEX_4V;
3987 def VMOVHLPSZrr : AVX512PSI<0x12, MRMSrcReg, (outs VR128X:$dst),
3988           (ins VR128X:$src1, VR128X:$src2),
3989           "vmovhlps\t{$src2, $src1, $dst|$dst, $src1, $src2}",
3990           [(set VR128X:$dst, (v4f32 (X86Movhlps VR128X:$src1, VR128X:$src2)))],
3991           IIC_SSE_MOV_LH>, EVEX_4V;
3992
3993 let Predicates = [HasAVX512] in {
3994   // MOVLHPS patterns
3995   def : Pat<(v4i32 (X86Movlhps VR128X:$src1, VR128X:$src2)),
3996             (VMOVLHPSZrr VR128X:$src1, VR128X:$src2)>;
3997   def : Pat<(v2i64 (X86Movlhps VR128X:$src1, VR128X:$src2)),
3998             (VMOVLHPSZrr (v2i64 VR128X:$src1), VR128X:$src2)>;
3999
4000   // MOVHLPS patterns
4001   def : Pat<(v4i32 (X86Movhlps VR128X:$src1, VR128X:$src2)),
4002             (VMOVHLPSZrr VR128X:$src1, VR128X:$src2)>;
4003 }
4004
4005 //===----------------------------------------------------------------------===//
4006 // FMA - Fused Multiply Operations
4007 //
4008
4009 let Constraints = "$src1 = $dst" in {
4010 // Omitting the parameter OpNode (= null_frag) disables ISel pattern matching.
4011 multiclass avx512_fma3p_rm<bits<8> opc, string OpcodeStr, X86VectorVTInfo _,
4012                            SDPatternOperator OpNode = null_frag> {
4013   defm r: AVX512_maskable_3src<opc, MRMSrcReg, _, (outs _.RC:$dst),
4014           (ins _.RC:$src2, _.RC:$src3),
4015           OpcodeStr, "$src3, $src2", "$src2, $src3",
4016           (_.VT (OpNode _.RC:$src1, _.RC:$src2, _.RC:$src3))>,
4017          AVX512FMA3Base;
4018
4019   let mayLoad = 1 in
4020   defm m: AVX512_maskable_3src<opc, MRMSrcMem, _, (outs _.RC:$dst),
4021             (ins _.RC:$src2, _.MemOp:$src3),
4022             OpcodeStr, "$src3, $src2", "$src2, $src3",
4023             (_.VT (OpNode _.RC:$src1, _.RC:$src2, (_.LdFrag addr:$src3)))>,
4024             AVX512FMA3Base; 
4025
4026   defm mb: AVX512_maskable_3src<opc, MRMSrcMem, _, (outs _.RC:$dst),
4027               (ins _.RC:$src2, _.ScalarMemOp:$src3),
4028               OpcodeStr,   !strconcat("${src3}", _.BroadcastStr,", $src2"),
4029               !strconcat("$src2, ${src3}", _.BroadcastStr ),
4030               (OpNode _.RC:$src1,
4031                _.RC:$src2,(_.VT (X86VBroadcast (_.ScalarLdFrag addr:$src3))))>, 
4032               AVX512FMA3Base, EVEX_B;
4033  }
4034 } // Constraints = "$src1 = $dst"
4035
4036 let Constraints = "$src1 = $dst" in {
4037 // Omitting the parameter OpNode (= null_frag) disables ISel pattern matching.
4038 multiclass avx512_fma3_round_rrb<bits<8> opc, string OpcodeStr,
4039                                  X86VectorVTInfo _,
4040                                  SDPatternOperator OpNode> {
4041    defm rb: AVX512_maskable_3src<opc, MRMSrcReg, _, (outs _.RC:$dst),
4042           (ins _.RC:$src2, _.RC:$src3, AVX512RC:$rc),
4043           OpcodeStr, "$rc, $src3, $src2", "$src2, $src3, $rc",
4044           (_.VT ( OpNode _.RC:$src1, _.RC:$src2, _.RC:$src3, (i32 imm:$rc)))>,
4045           AVX512FMA3Base, EVEX_B, EVEX_RC;
4046  }
4047 } // Constraints = "$src1 = $dst"
4048
4049 multiclass avx512_fma3_round_forms<bits<8> opc213, string OpcodeStr,
4050                               X86VectorVTInfo VTI, SDPatternOperator OpNode> {
4051   defm v213r : avx512_fma3_round_rrb<opc213, !strconcat(OpcodeStr, "213", VTI.Suffix),
4052                               VTI, OpNode>, EVEX_CD8<VTI.EltSize, CD8VF>;
4053 }
4054
4055 multiclass avx512_fma3p_forms<bits<8> opc213, bits<8> opc231,
4056                               string OpcodeStr, X86VectorVTInfo VTI,
4057                               SDPatternOperator OpNode> {
4058   defm v213r : avx512_fma3p_rm<opc213, !strconcat(OpcodeStr, "213", VTI.Suffix),
4059                               VTI, OpNode>, EVEX_CD8<VTI.EltSize, CD8VF>;
4060   defm v231r : avx512_fma3p_rm<opc231, !strconcat(OpcodeStr, "231", VTI.Suffix),
4061                               VTI>, EVEX_CD8<VTI.EltSize, CD8VF>;
4062 }
4063
4064 multiclass avx512_fma3p<bits<8> opc213, bits<8> opc231,
4065                               string OpcodeStr,
4066                               SDPatternOperator OpNode,
4067                               SDPatternOperator OpNodeRnd> {
4068 let ExeDomain = SSEPackedSingle in {
4069     defm NAME##PSZ      : avx512_fma3p_forms<opc213, opc231, OpcodeStr,
4070                                              v16f32_info, OpNode>,
4071                           avx512_fma3_round_forms<opc213, OpcodeStr,
4072                                              v16f32_info, OpNodeRnd>, EVEX_V512;
4073     defm NAME##PSZ256   : avx512_fma3p_forms<opc213, opc231, OpcodeStr,
4074                                              v8f32x_info, OpNode>, EVEX_V256;
4075     defm NAME##PSZ128   : avx512_fma3p_forms<opc213, opc231, OpcodeStr,
4076                                              v4f32x_info, OpNode>, EVEX_V128;
4077   }
4078 let ExeDomain = SSEPackedDouble in {
4079     defm  NAME##PDZ     : avx512_fma3p_forms<opc213, opc231, OpcodeStr,
4080                                              v8f64_info, OpNode>,
4081                           avx512_fma3_round_forms<opc213, OpcodeStr, v8f64_info,
4082                                                   OpNodeRnd>, EVEX_V512, VEX_W;
4083     defm  NAME##PDZ256  : avx512_fma3p_forms<opc213, opc231, OpcodeStr,
4084                                              v4f64x_info, OpNode>,
4085                                              EVEX_V256, VEX_W;
4086     defm  NAME##PDZ128  : avx512_fma3p_forms<opc213, opc231, OpcodeStr,
4087                                              v2f64x_info, OpNode>,
4088                                              EVEX_V128, VEX_W;
4089   }
4090 }
4091
4092 defm VFMADD    : avx512_fma3p<0xA8, 0xB8, "vfmadd", X86Fmadd, X86FmaddRnd>;
4093 defm VFMSUB    : avx512_fma3p<0xAA, 0xBA, "vfmsub", X86Fmsub, X86FmsubRnd>;
4094 defm VFMADDSUB : avx512_fma3p<0xA6, 0xB6, "vfmaddsub", X86Fmaddsub, X86FmaddsubRnd>;
4095 defm VFMSUBADD : avx512_fma3p<0xA7, 0xB7, "vfmsubadd", X86Fmsubadd, X86FmsubaddRnd>;
4096 defm VFNMADD   : avx512_fma3p<0xAC, 0xBC, "vfnmadd", X86Fnmadd, X86FnmaddRnd>;
4097 defm VFNMSUB   : avx512_fma3p<0xAE, 0xBE, "vfnmsub", X86Fnmsub, X86FnmsubRnd>;
4098
4099 let Constraints = "$src1 = $dst" in {
4100 multiclass avx512_fma3p_m132<bits<8> opc, string OpcodeStr, SDNode OpNode,
4101                              X86VectorVTInfo _> {
4102   let mayLoad = 1 in
4103   def m: AVX512FMA3<opc, MRMSrcMem, (outs _.RC:$dst),
4104           (ins _.RC:$src1, _.RC:$src3, _.MemOp:$src2),
4105           !strconcat(OpcodeStr, "\t{$src2, $src3, $dst|$dst, $src3, $src2}"),
4106           [(set _.RC:$dst, (_.VT (OpNode _.RC:$src1, (_.LdFrag addr:$src2),
4107                                                     _.RC:$src3)))]>;
4108    def mb: AVX512FMA3<opc, MRMSrcMem, (outs _.RC:$dst),
4109            (ins _.RC:$src1, _.RC:$src3, _.ScalarMemOp:$src2),
4110            !strconcat(OpcodeStr, "\t{${src2}", _.BroadcastStr,
4111             ", $src3, $dst|$dst, $src3, ${src2}", _.BroadcastStr, "}"),
4112            [(set _.RC:$dst,
4113                (OpNode _.RC:$src1, (_.VT (X86VBroadcast
4114                                             (_.ScalarLdFrag addr:$src2))),
4115                                    _.RC:$src3))]>, EVEX_B;
4116 }
4117 } // Constraints = "$src1 = $dst"
4118
4119 multiclass avx512_fma3p_m132_f<bits<8> opc, string OpcodeStr, SDNode OpNode> {
4120
4121 let ExeDomain = SSEPackedSingle in {
4122     defm NAME##PSZ      : avx512_fma3p_m132<opc, OpcodeStr##ps,
4123                                              OpNode,v16f32_info>, EVEX_V512,
4124                                              EVEX_CD8<32, CD8VF>;
4125     defm NAME##PSZ256   : avx512_fma3p_m132<opc, OpcodeStr##ps,
4126                                              OpNode, v8f32x_info>, EVEX_V256,
4127                                              EVEX_CD8<32, CD8VF>;
4128     defm NAME##PSZ128   : avx512_fma3p_m132<opc, OpcodeStr##ps,
4129                                              OpNode, v4f32x_info>, EVEX_V128,
4130                                              EVEX_CD8<32, CD8VF>;
4131   }
4132 let ExeDomain = SSEPackedDouble in {
4133     defm  NAME##PDZ       : avx512_fma3p_m132<opc, OpcodeStr##pd,
4134                                            OpNode, v8f64_info>, EVEX_V512,
4135                                            VEX_W, EVEX_CD8<32, CD8VF>;
4136     defm  NAME##PDZ256    : avx512_fma3p_m132<opc, OpcodeStr##pd,
4137                                            OpNode, v4f64x_info>, EVEX_V256,
4138                                            VEX_W, EVEX_CD8<32, CD8VF>;
4139     defm  NAME##PDZ128    : avx512_fma3p_m132<opc, OpcodeStr##pd,
4140                                            OpNode, v2f64x_info>, EVEX_V128,
4141                                            VEX_W, EVEX_CD8<32, CD8VF>;
4142   }
4143 }
4144
4145 defm VFMADD132    : avx512_fma3p_m132_f<0x98, "vfmadd132", X86Fmadd>;
4146 defm VFMSUB132    : avx512_fma3p_m132_f<0x9A, "vfmsub132", X86Fmsub>;
4147 defm VFMADDSUB132 : avx512_fma3p_m132_f<0x96, "vfmaddsub132", X86Fmaddsub>;
4148 defm VFMSUBADD132 : avx512_fma3p_m132_f<0x97, "vfmsubadd132", X86Fmsubadd>;
4149 defm VFNMADD132   : avx512_fma3p_m132_f<0x9C, "vfnmadd132", X86Fnmadd>;
4150 defm VFNMSUB132   : avx512_fma3p_m132_f<0x9E, "vfnmsub132", X86Fnmsub>;
4151
4152 // Scalar FMA
4153 let Constraints = "$src1 = $dst" in {
4154 multiclass avx512_fma3s_rm<bits<8> opc, string OpcodeStr, SDNode OpNode,
4155                  RegisterClass RC, ValueType OpVT,
4156                  X86MemOperand x86memop, Operand memop,
4157                  PatFrag mem_frag> {
4158   let isCommutable = 1 in
4159   def r     : AVX512FMA3<opc, MRMSrcReg, (outs RC:$dst),
4160                    (ins RC:$src1, RC:$src2, RC:$src3),
4161                    !strconcat(OpcodeStr,
4162                               "\t{$src3, $src2, $dst|$dst, $src2, $src3}"),
4163                    [(set RC:$dst,
4164                      (OpVT (OpNode RC:$src2, RC:$src1, RC:$src3)))]>;
4165   let mayLoad = 1 in
4166   def m     : AVX512FMA3<opc, MRMSrcMem, (outs RC:$dst),
4167                    (ins RC:$src1, RC:$src2, f128mem:$src3),
4168                    !strconcat(OpcodeStr,
4169                               "\t{$src3, $src2, $dst|$dst, $src2, $src3}"),
4170                    [(set RC:$dst,
4171                      (OpVT (OpNode RC:$src2, RC:$src1,
4172                             (mem_frag addr:$src3))))]>;
4173 }
4174 } // Constraints = "$src1 = $dst"
4175
4176 defm VFMADDSSZ  : avx512_fma3s_rm<0xA9, "vfmadd213ss", X86Fmadd, FR32X,
4177                       f32, f32mem, ssmem, loadf32>, EVEX_CD8<32, CD8VT1>;
4178 defm VFMADDSDZ  : avx512_fma3s_rm<0xA9, "vfmadd213sd", X86Fmadd, FR64X,
4179                       f64, f64mem, sdmem, loadf64>, VEX_W, EVEX_CD8<64, CD8VT1>;
4180 defm VFMSUBSSZ  : avx512_fma3s_rm<0xAB, "vfmsub213ss", X86Fmsub, FR32X,
4181                       f32, f32mem, ssmem, loadf32>, EVEX_CD8<32, CD8VT1>;
4182 defm VFMSUBSDZ  : avx512_fma3s_rm<0xAB, "vfmsub213sd", X86Fmsub, FR64X,
4183                       f64, f64mem, sdmem, loadf64>, VEX_W, EVEX_CD8<64, CD8VT1>;
4184 defm VFNMADDSSZ  : avx512_fma3s_rm<0xAD, "vfnmadd213ss", X86Fnmadd, FR32X,
4185                       f32, f32mem, ssmem, loadf32>, EVEX_CD8<32, CD8VT1>;
4186 defm VFNMADDSDZ  : avx512_fma3s_rm<0xAD, "vfnmadd213sd", X86Fnmadd, FR64X,
4187                       f64, f64mem, sdmem, loadf64>, VEX_W, EVEX_CD8<64, CD8VT1>;
4188 defm VFNMSUBSSZ  : avx512_fma3s_rm<0xAF, "vfnmsub213ss", X86Fnmsub, FR32X,
4189                       f32, f32mem, ssmem, loadf32>, EVEX_CD8<32, CD8VT1>;
4190 defm VFNMSUBSDZ  : avx512_fma3s_rm<0xAF, "vfnmsub213sd", X86Fnmsub, FR64X,
4191                       f64, f64mem, sdmem, loadf64>, VEX_W, EVEX_CD8<64, CD8VT1>;
4192
4193 //===----------------------------------------------------------------------===//
4194 // AVX-512  Scalar convert from sign integer to float/double
4195 //===----------------------------------------------------------------------===//
4196
4197 multiclass avx512_vcvtsi<bits<8> opc, RegisterClass SrcRC, RegisterClass DstRC,
4198                           X86MemOperand x86memop, string asm> {
4199 let hasSideEffects = 0 in {
4200   def rr : SI<opc, MRMSrcReg, (outs DstRC:$dst), (ins DstRC:$src1, SrcRC:$src),
4201               !strconcat(asm,"\t{$src, $src1, $dst|$dst, $src1, $src}"), []>,
4202               EVEX_4V;
4203   let mayLoad = 1 in
4204   def rm : SI<opc, MRMSrcMem, (outs DstRC:$dst),
4205               (ins DstRC:$src1, x86memop:$src),
4206               !strconcat(asm,"\t{$src, $src1, $dst|$dst, $src1, $src}"), []>,
4207               EVEX_4V;
4208 } // hasSideEffects = 0
4209 }
4210
4211 let Predicates = [HasAVX512] in {
4212 defm VCVTSI2SSZ   : avx512_vcvtsi<0x2A, GR32, FR32X, i32mem, "cvtsi2ss{l}">,
4213                                   XS, VEX_LIG, EVEX_CD8<32, CD8VT1>;
4214 defm VCVTSI642SSZ : avx512_vcvtsi<0x2A, GR64, FR32X, i64mem, "cvtsi2ss{q}">,
4215                                   XS, VEX_W, VEX_LIG, EVEX_CD8<64, CD8VT1>;
4216 defm VCVTSI2SDZ   : avx512_vcvtsi<0x2A, GR32, FR64X, i32mem, "cvtsi2sd{l}">,
4217                                   XD, VEX_LIG, EVEX_CD8<32, CD8VT1>;
4218 defm VCVTSI642SDZ : avx512_vcvtsi<0x2A, GR64, FR64X, i64mem, "cvtsi2sd{q}">,
4219                                   XD, VEX_W, VEX_LIG, EVEX_CD8<64, CD8VT1>;
4220
4221 def : Pat<(f32 (sint_to_fp (loadi32 addr:$src))),
4222           (VCVTSI2SSZrm (f32 (IMPLICIT_DEF)), addr:$src)>;
4223 def : Pat<(f32 (sint_to_fp (loadi64 addr:$src))),
4224           (VCVTSI642SSZrm (f32 (IMPLICIT_DEF)), addr:$src)>;
4225 def : Pat<(f64 (sint_to_fp (loadi32 addr:$src))),
4226           (VCVTSI2SDZrm (f64 (IMPLICIT_DEF)), addr:$src)>;
4227 def : Pat<(f64 (sint_to_fp (loadi64 addr:$src))),
4228           (VCVTSI642SDZrm (f64 (IMPLICIT_DEF)), addr:$src)>;
4229
4230 def : Pat<(f32 (sint_to_fp GR32:$src)),
4231           (VCVTSI2SSZrr (f32 (IMPLICIT_DEF)), GR32:$src)>;
4232 def : Pat<(f32 (sint_to_fp GR64:$src)),
4233           (VCVTSI642SSZrr (f32 (IMPLICIT_DEF)), GR64:$src)>;
4234 def : Pat<(f64 (sint_to_fp GR32:$src)),
4235           (VCVTSI2SDZrr (f64 (IMPLICIT_DEF)), GR32:$src)>;
4236 def : Pat<(f64 (sint_to_fp GR64:$src)),
4237           (VCVTSI642SDZrr (f64 (IMPLICIT_DEF)), GR64:$src)>;
4238
4239 defm VCVTUSI2SSZ   : avx512_vcvtsi<0x7B, GR32, FR32X, i32mem, "cvtusi2ss{l}">,
4240                                   XS, VEX_LIG, EVEX_CD8<32, CD8VT1>;
4241 defm VCVTUSI642SSZ : avx512_vcvtsi<0x7B, GR64, FR32X, i64mem, "cvtusi2ss{q}">,
4242                                   XS, VEX_W, VEX_LIG, EVEX_CD8<64, CD8VT1>;
4243 defm VCVTUSI2SDZ   : avx512_vcvtsi<0x7B, GR32, FR64X, i32mem, "cvtusi2sd{l}">,
4244                                   XD, VEX_LIG, EVEX_CD8<32, CD8VT1>;
4245 defm VCVTUSI642SDZ : avx512_vcvtsi<0x7B, GR64, FR64X, i64mem, "cvtusi2sd{q}">,
4246                                   XD, VEX_W, VEX_LIG, EVEX_CD8<64, CD8VT1>;
4247
4248 def : Pat<(f32 (uint_to_fp (loadi32 addr:$src))),
4249           (VCVTUSI2SSZrm (f32 (IMPLICIT_DEF)), addr:$src)>;
4250 def : Pat<(f32 (uint_to_fp (loadi64 addr:$src))),
4251           (VCVTUSI642SSZrm (f32 (IMPLICIT_DEF)), addr:$src)>;
4252 def : Pat<(f64 (uint_to_fp (loadi32 addr:$src))),
4253           (VCVTUSI2SDZrm (f64 (IMPLICIT_DEF)), addr:$src)>;
4254 def : Pat<(f64 (uint_to_fp (loadi64 addr:$src))),
4255           (VCVTUSI642SDZrm (f64 (IMPLICIT_DEF)), addr:$src)>;
4256
4257 def : Pat<(f32 (uint_to_fp GR32:$src)),
4258           (VCVTUSI2SSZrr (f32 (IMPLICIT_DEF)), GR32:$src)>;
4259 def : Pat<(f32 (uint_to_fp GR64:$src)),
4260           (VCVTUSI642SSZrr (f32 (IMPLICIT_DEF)), GR64:$src)>;
4261 def : Pat<(f64 (uint_to_fp GR32:$src)),
4262           (VCVTUSI2SDZrr (f64 (IMPLICIT_DEF)), GR32:$src)>;
4263 def : Pat<(f64 (uint_to_fp GR64:$src)),
4264           (VCVTUSI642SDZrr (f64 (IMPLICIT_DEF)), GR64:$src)>;
4265 }
4266
4267 //===----------------------------------------------------------------------===//
4268 // AVX-512  Scalar convert from float/double to integer
4269 //===----------------------------------------------------------------------===//
4270 multiclass avx512_cvt_s_int<bits<8> opc, RegisterClass SrcRC, RegisterClass DstRC,
4271                           Intrinsic Int, Operand memop, ComplexPattern mem_cpat,
4272                           string asm> {
4273 let hasSideEffects = 0 in {
4274   def rr : SI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src),
4275               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4276               [(set DstRC:$dst, (Int SrcRC:$src))]>, EVEX, VEX_LIG,
4277               Requires<[HasAVX512]>;
4278   let mayLoad = 1 in
4279   def rm : SI<opc, MRMSrcMem, (outs DstRC:$dst), (ins memop:$src),
4280               !strconcat(asm,"\t{$src, $dst|$dst, $src}"), []>, EVEX, VEX_LIG,
4281               Requires<[HasAVX512]>;
4282 } // hasSideEffects = 0
4283 }
4284 let Predicates = [HasAVX512] in {
4285 // Convert float/double to signed/unsigned int 32/64
4286 defm VCVTSS2SIZ:    avx512_cvt_s_int<0x2D, VR128X, GR32, int_x86_sse_cvtss2si,
4287                                    ssmem, sse_load_f32, "cvtss2si">,
4288                                    XS, EVEX_CD8<32, CD8VT1>;
4289 defm VCVTSS2SI64Z:  avx512_cvt_s_int<0x2D, VR128X, GR64, int_x86_sse_cvtss2si64,
4290                                    ssmem, sse_load_f32, "cvtss2si">,
4291                                    XS, VEX_W, EVEX_CD8<32, CD8VT1>;
4292 defm VCVTSS2USIZ:   avx512_cvt_s_int<0x79, VR128X, GR32, int_x86_avx512_cvtss2usi,
4293                                    ssmem, sse_load_f32, "cvtss2usi">,
4294                                    XS, EVEX_CD8<32, CD8VT1>;
4295 defm VCVTSS2USI64Z: avx512_cvt_s_int<0x79, VR128X, GR64,
4296                                    int_x86_avx512_cvtss2usi64, ssmem,
4297                                    sse_load_f32, "cvtss2usi">, XS, VEX_W,
4298                                    EVEX_CD8<32, CD8VT1>;
4299 defm VCVTSD2SIZ:    avx512_cvt_s_int<0x2D, VR128X, GR32, int_x86_sse2_cvtsd2si,
4300                                    sdmem, sse_load_f64, "cvtsd2si">,
4301                                    XD, EVEX_CD8<64, CD8VT1>;
4302 defm VCVTSD2SI64Z:  avx512_cvt_s_int<0x2D, VR128X, GR64, int_x86_sse2_cvtsd2si64,
4303                                    sdmem, sse_load_f64, "cvtsd2si">,
4304                                    XD, VEX_W, EVEX_CD8<64, CD8VT1>;
4305 defm VCVTSD2USIZ:   avx512_cvt_s_int<0x79, VR128X, GR32, int_x86_avx512_cvtsd2usi,
4306                                    sdmem, sse_load_f64, "cvtsd2usi">,
4307                                    XD, EVEX_CD8<64, CD8VT1>;
4308 defm VCVTSD2USI64Z: avx512_cvt_s_int<0x79, VR128X, GR64,
4309                                    int_x86_avx512_cvtsd2usi64, sdmem,
4310                                    sse_load_f64, "cvtsd2usi">, XD, VEX_W,
4311                                    EVEX_CD8<64, CD8VT1>;
4312
4313 let isCodeGenOnly = 1 in {
4314   defm Int_VCVTSI2SSZ : sse12_cvt_sint_3addr<0x2A, GR32, VR128X,
4315             int_x86_sse_cvtsi2ss, i32mem, loadi32, "cvtsi2ss{l}",
4316             SSE_CVT_Scalar, 0>, XS, EVEX_4V;
4317   defm Int_VCVTSI2SS64Z : sse12_cvt_sint_3addr<0x2A, GR64, VR128X,
4318             int_x86_sse_cvtsi642ss, i64mem, loadi64, "cvtsi2ss{q}",
4319             SSE_CVT_Scalar, 0>, XS, EVEX_4V, VEX_W;
4320   defm Int_VCVTSI2SDZ : sse12_cvt_sint_3addr<0x2A, GR32, VR128X,
4321             int_x86_sse2_cvtsi2sd, i32mem, loadi32, "cvtsi2sd{l}",
4322             SSE_CVT_Scalar, 0>, XD, EVEX_4V;
4323   defm Int_VCVTSI2SD64Z : sse12_cvt_sint_3addr<0x2A, GR64, VR128X,
4324             int_x86_sse2_cvtsi642sd, i64mem, loadi64, "cvtsi2sd{q}",
4325             SSE_CVT_Scalar, 0>, XD, EVEX_4V, VEX_W;
4326
4327   defm Int_VCVTUSI2SSZ : sse12_cvt_sint_3addr<0x2A, GR32, VR128X,
4328             int_x86_avx512_cvtusi2ss, i32mem, loadi32, "cvtusi2ss{l}",
4329             SSE_CVT_Scalar, 0>, XS, EVEX_4V;
4330   defm Int_VCVTUSI2SS64Z : sse12_cvt_sint_3addr<0x2A, GR64, VR128X,
4331             int_x86_avx512_cvtusi642ss, i64mem, loadi64, "cvtusi2ss{q}",
4332             SSE_CVT_Scalar, 0>, XS, EVEX_4V, VEX_W;
4333   defm Int_VCVTUSI2SDZ : sse12_cvt_sint_3addr<0x2A, GR32, VR128X,
4334             int_x86_avx512_cvtusi2sd, i32mem, loadi32, "cvtusi2sd{l}",
4335             SSE_CVT_Scalar, 0>, XD, EVEX_4V;
4336   defm Int_VCVTUSI2SD64Z : sse12_cvt_sint_3addr<0x2A, GR64, VR128X,
4337             int_x86_avx512_cvtusi642sd, i64mem, loadi64, "cvtusi2sd{q}",
4338             SSE_CVT_Scalar, 0>, XD, EVEX_4V, VEX_W;
4339 } // isCodeGenOnly = 1
4340
4341 // Convert float/double to signed/unsigned int 32/64 with truncation
4342 let isCodeGenOnly = 1 in {
4343   defm Int_VCVTTSS2SIZ : avx512_cvt_s_int<0x2C, VR128X, GR32, int_x86_sse_cvttss2si,
4344                                      ssmem, sse_load_f32, "cvttss2si">,
4345                                      XS, EVEX_CD8<32, CD8VT1>;
4346   defm Int_VCVTTSS2SI64Z : avx512_cvt_s_int<0x2C, VR128X, GR64,
4347                                      int_x86_sse_cvttss2si64, ssmem, sse_load_f32,
4348                                      "cvttss2si">, XS, VEX_W,
4349                                      EVEX_CD8<32, CD8VT1>;
4350   defm Int_VCVTTSD2SIZ : avx512_cvt_s_int<0x2C, VR128X, GR32, int_x86_sse2_cvttsd2si,
4351                                      sdmem, sse_load_f64, "cvttsd2si">, XD,
4352                                      EVEX_CD8<64, CD8VT1>;
4353   defm Int_VCVTTSD2SI64Z : avx512_cvt_s_int<0x2C, VR128X, GR64,
4354                                      int_x86_sse2_cvttsd2si64, sdmem, sse_load_f64,
4355                                      "cvttsd2si">, XD, VEX_W,
4356                                      EVEX_CD8<64, CD8VT1>;
4357   defm Int_VCVTTSS2USIZ : avx512_cvt_s_int<0x78, VR128X, GR32,
4358                                      int_x86_avx512_cvttss2usi, ssmem, sse_load_f32,
4359                                      "cvttss2usi">, XS, EVEX_CD8<32, CD8VT1>;
4360   defm Int_VCVTTSS2USI64Z : avx512_cvt_s_int<0x78, VR128X, GR64,
4361                                      int_x86_avx512_cvttss2usi64, ssmem,
4362                                      sse_load_f32, "cvttss2usi">, XS, VEX_W,
4363                                      EVEX_CD8<32, CD8VT1>;
4364   defm Int_VCVTTSD2USIZ : avx512_cvt_s_int<0x78, VR128X, GR32,
4365                                      int_x86_avx512_cvttsd2usi,
4366                                      sdmem, sse_load_f64, "cvttsd2usi">, XD,
4367                                      EVEX_CD8<64, CD8VT1>;
4368   defm Int_VCVTTSD2USI64Z : avx512_cvt_s_int<0x78, VR128X, GR64,
4369                                      int_x86_avx512_cvttsd2usi64, sdmem,
4370                                      sse_load_f64, "cvttsd2usi">, XD, VEX_W,
4371                                      EVEX_CD8<64, CD8VT1>;
4372 } // isCodeGenOnly = 1
4373
4374 multiclass avx512_cvt_s<bits<8> opc, RegisterClass SrcRC, RegisterClass DstRC,
4375                          SDNode OpNode, X86MemOperand x86memop, PatFrag ld_frag,
4376                          string asm> {
4377   def rr : SI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src),
4378               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4379               [(set DstRC:$dst, (OpNode SrcRC:$src))]>, EVEX;
4380   def rm : SI<opc, MRMSrcMem, (outs DstRC:$dst), (ins x86memop:$src),
4381               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4382               [(set DstRC:$dst, (OpNode (ld_frag addr:$src)))]>, EVEX;
4383 }
4384
4385 defm VCVTTSS2SIZ    : avx512_cvt_s<0x2C, FR32X, GR32, fp_to_sint, f32mem,
4386                                   loadf32, "cvttss2si">, XS,
4387                                   EVEX_CD8<32, CD8VT1>;
4388 defm VCVTTSS2USIZ   : avx512_cvt_s<0x78, FR32X, GR32, fp_to_uint, f32mem,
4389                                   loadf32, "cvttss2usi">, XS,
4390                                   EVEX_CD8<32, CD8VT1>;
4391 defm VCVTTSS2SI64Z  : avx512_cvt_s<0x2C, FR32X, GR64, fp_to_sint, f32mem,
4392                                   loadf32, "cvttss2si">, XS, VEX_W,
4393                                   EVEX_CD8<32, CD8VT1>;
4394 defm VCVTTSS2USI64Z : avx512_cvt_s<0x78, FR32X, GR64, fp_to_uint, f32mem,
4395                                   loadf32, "cvttss2usi">, XS, VEX_W,
4396                                   EVEX_CD8<32, CD8VT1>;
4397 defm VCVTTSD2SIZ    : avx512_cvt_s<0x2C, FR64X, GR32, fp_to_sint, f64mem,
4398                                   loadf64, "cvttsd2si">, XD,
4399                                   EVEX_CD8<64, CD8VT1>;
4400 defm VCVTTSD2USIZ   : avx512_cvt_s<0x78, FR64X, GR32, fp_to_uint, f64mem,
4401                                   loadf64, "cvttsd2usi">, XD,
4402                                   EVEX_CD8<64, CD8VT1>;
4403 defm VCVTTSD2SI64Z  : avx512_cvt_s<0x2C, FR64X, GR64, fp_to_sint, f64mem,
4404                                   loadf64, "cvttsd2si">, XD, VEX_W,
4405                                   EVEX_CD8<64, CD8VT1>;
4406 defm VCVTTSD2USI64Z : avx512_cvt_s<0x78, FR64X, GR64, fp_to_uint, f64mem,
4407                                   loadf64, "cvttsd2usi">, XD, VEX_W,
4408                                   EVEX_CD8<64, CD8VT1>;
4409 } // HasAVX512
4410 //===----------------------------------------------------------------------===//
4411 // AVX-512  Convert form float to double and back
4412 //===----------------------------------------------------------------------===//
4413 let hasSideEffects = 0 in {
4414 def VCVTSS2SDZrr : AVX512XSI<0x5A, MRMSrcReg, (outs FR64X:$dst),
4415                     (ins FR32X:$src1, FR32X:$src2),
4416                     "vcvtss2sd\t{$src2, $src1, $dst|$dst, $src1, $src2}",
4417                     []>, EVEX_4V, VEX_LIG, Sched<[WriteCvtF2F]>;
4418 let mayLoad = 1 in
4419 def VCVTSS2SDZrm : AVX512XSI<0x5A, MRMSrcMem, (outs FR64X:$dst),
4420                     (ins FR32X:$src1, f32mem:$src2),
4421                     "vcvtss2sd\t{$src2, $src1, $dst|$dst, $src1, $src2}",
4422                     []>, EVEX_4V, VEX_LIG, Sched<[WriteCvtF2FLd, ReadAfterLd]>,
4423                     EVEX_CD8<32, CD8VT1>;
4424
4425 // Convert scalar double to scalar single
4426 def VCVTSD2SSZrr  : AVX512XDI<0x5A, MRMSrcReg, (outs FR32X:$dst),
4427                       (ins FR64X:$src1, FR64X:$src2),
4428                       "vcvtsd2ss\t{$src2, $src1, $dst|$dst, $src1, $src2}",
4429                       []>, EVEX_4V, VEX_LIG, VEX_W, Sched<[WriteCvtF2F]>;
4430 let mayLoad = 1 in
4431 def VCVTSD2SSZrm  : AVX512XDI<0x5A, MRMSrcMem, (outs FR32X:$dst),
4432                       (ins FR64X:$src1, f64mem:$src2),
4433                       "vcvtsd2ss\t{$src2, $src1, $dst|$dst, $src1, $src2}",
4434                       []>, EVEX_4V, VEX_LIG, VEX_W,
4435                       Sched<[WriteCvtF2FLd, ReadAfterLd]>, EVEX_CD8<64, CD8VT1>;
4436 }
4437
4438 def : Pat<(f64 (fextend FR32X:$src)), (VCVTSS2SDZrr FR32X:$src, FR32X:$src)>,
4439       Requires<[HasAVX512]>;
4440 def : Pat<(fextend (loadf32 addr:$src)),
4441     (VCVTSS2SDZrm (f32 (IMPLICIT_DEF)), addr:$src)>, Requires<[HasAVX512]>;
4442
4443 def : Pat<(extloadf32 addr:$src),
4444     (VCVTSS2SDZrm (f32 (IMPLICIT_DEF)), addr:$src)>,
4445       Requires<[HasAVX512, OptForSize]>;
4446
4447 def : Pat<(extloadf32 addr:$src),
4448     (VCVTSS2SDZrr (f32 (IMPLICIT_DEF)), (VMOVSSZrm addr:$src))>,
4449     Requires<[HasAVX512, OptForSpeed]>;
4450
4451 def : Pat<(f32 (fround FR64X:$src)), (VCVTSD2SSZrr FR64X:$src, FR64X:$src)>,
4452            Requires<[HasAVX512]>;
4453
4454 multiclass avx512_vcvt_fp_with_rc<bits<8> opc, string asm, RegisterClass SrcRC,
4455                RegisterClass DstRC, SDNode OpNode, PatFrag mem_frag,
4456                X86MemOperand x86memop, ValueType OpVT, ValueType InVT,
4457                Domain d> {
4458 let hasSideEffects = 0 in {
4459   def rr : AVX512PI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src),
4460               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4461               [(set DstRC:$dst,
4462                 (OpVT (OpNode (InVT SrcRC:$src))))], d>, EVEX;
4463   def rrb : AVX512PI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src, AVX512RC:$rc),
4464               !strconcat(asm,"\t{$rc, $src, $dst|$dst, $src, $rc}"),
4465               [], d>, EVEX, EVEX_B, EVEX_RC;
4466   let mayLoad = 1 in
4467   def rm : AVX512PI<opc, MRMSrcMem, (outs DstRC:$dst), (ins x86memop:$src),
4468               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4469               [(set DstRC:$dst,
4470                 (OpVT (OpNode (InVT (bitconvert (mem_frag addr:$src))))))], d>, EVEX;
4471 } // hasSideEffects = 0
4472 }
4473
4474 multiclass avx512_vcvt_fp<bits<8> opc, string asm, RegisterClass SrcRC,
4475                RegisterClass DstRC, SDNode OpNode, PatFrag mem_frag,
4476                X86MemOperand x86memop, ValueType OpVT, ValueType InVT,
4477                Domain d> {
4478 let hasSideEffects = 0 in {
4479   def rr : AVX512PI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src),
4480               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4481               [(set DstRC:$dst,
4482                 (OpVT (OpNode (InVT SrcRC:$src))))], d>, EVEX;
4483   let mayLoad = 1 in
4484   def rm : AVX512PI<opc, MRMSrcMem, (outs DstRC:$dst), (ins x86memop:$src),
4485               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4486               [(set DstRC:$dst,
4487                 (OpVT (OpNode (InVT (bitconvert (mem_frag addr:$src))))))], d>, EVEX;
4488 } // hasSideEffects = 0
4489 }
4490
4491 defm VCVTPD2PSZ : avx512_vcvt_fp_with_rc<0x5A, "vcvtpd2ps", VR512, VR256X, fround,
4492                                 loadv8f64, f512mem, v8f32, v8f64,
4493                                 SSEPackedSingle>, EVEX_V512, VEX_W, PD,
4494                                 EVEX_CD8<64, CD8VF>;
4495
4496 defm VCVTPS2PDZ : avx512_vcvt_fp<0x5A, "vcvtps2pd", VR256X, VR512, fextend,
4497                                 loadv4f64, f256mem, v8f64, v8f32,
4498                                 SSEPackedDouble>, EVEX_V512, PS,
4499                                 EVEX_CD8<32, CD8VH>;
4500 def : Pat<(v8f64 (extloadv8f32 addr:$src)),
4501             (VCVTPS2PDZrm addr:$src)>;
4502
4503 def : Pat<(v8f32 (int_x86_avx512_mask_cvtpd2ps_512 (v8f64 VR512:$src),
4504                    (bc_v8f32(v8i32 immAllZerosV)), (i8 -1), (i32 FROUND_CURRENT))),
4505           (VCVTPD2PSZrr VR512:$src)>;
4506
4507 def : Pat<(v8f32 (int_x86_avx512_mask_cvtpd2ps_512 (v8f64 VR512:$src),
4508                    (bc_v8f32(v8i32 immAllZerosV)), (i8 -1), imm:$rc)),
4509           (VCVTPD2PSZrrb VR512:$src, imm:$rc)>;
4510
4511 //===----------------------------------------------------------------------===//
4512 // AVX-512  Vector convert from sign integer to float/double
4513 //===----------------------------------------------------------------------===//
4514
4515 defm VCVTDQ2PSZ : avx512_vcvt_fp_with_rc<0x5B, "vcvtdq2ps", VR512, VR512, sint_to_fp,
4516                                 loadv8i64, i512mem, v16f32, v16i32,
4517                                 SSEPackedSingle>, EVEX_V512, PS,
4518                                 EVEX_CD8<32, CD8VF>;
4519
4520 defm VCVTDQ2PDZ : avx512_vcvt_fp<0xE6, "vcvtdq2pd", VR256X, VR512, sint_to_fp,
4521                                 loadv4i64, i256mem, v8f64, v8i32,
4522                                 SSEPackedDouble>, EVEX_V512, XS,
4523                                 EVEX_CD8<32, CD8VH>;
4524
4525 defm VCVTTPS2DQZ : avx512_vcvt_fp<0x5B, "vcvttps2dq", VR512, VR512, fp_to_sint,
4526                                  loadv16f32, f512mem, v16i32, v16f32,
4527                                  SSEPackedSingle>, EVEX_V512, XS,
4528                                  EVEX_CD8<32, CD8VF>;
4529
4530 defm VCVTTPD2DQZ : avx512_vcvt_fp<0xE6, "vcvttpd2dq", VR512, VR256X, fp_to_sint,
4531                                  loadv8f64, f512mem, v8i32, v8f64,
4532                                  SSEPackedDouble>, EVEX_V512, PD, VEX_W,
4533                                  EVEX_CD8<64, CD8VF>;
4534
4535 defm VCVTTPS2UDQZ : avx512_vcvt_fp<0x78, "vcvttps2udq", VR512, VR512, fp_to_uint,
4536                                  loadv16f32, f512mem, v16i32, v16f32,
4537                                  SSEPackedSingle>, EVEX_V512, PS,
4538                                  EVEX_CD8<32, CD8VF>;
4539
4540 // cvttps2udq (src, 0, mask-all-ones, sae-current)
4541 def : Pat<(v16i32 (int_x86_avx512_mask_cvttps2udq_512 (v16f32 VR512:$src),
4542                    (v16i32 immAllZerosV), (i16 -1), FROUND_CURRENT)),
4543           (VCVTTPS2UDQZrr VR512:$src)>;
4544
4545 defm VCVTTPD2UDQZ : avx512_vcvt_fp<0x78, "vcvttpd2udq", VR512, VR256X, fp_to_uint,
4546                                  loadv8f64, f512mem, v8i32, v8f64,
4547                                  SSEPackedDouble>, EVEX_V512, PS, VEX_W,
4548                                  EVEX_CD8<64, CD8VF>;
4549
4550 // cvttpd2udq (src, 0, mask-all-ones, sae-current)
4551 def : Pat<(v8i32 (int_x86_avx512_mask_cvttpd2udq_512 (v8f64 VR512:$src),
4552                    (v8i32 immAllZerosV), (i8 -1), FROUND_CURRENT)),
4553           (VCVTTPD2UDQZrr VR512:$src)>;
4554
4555 defm VCVTUDQ2PDZ : avx512_vcvt_fp<0x7A, "vcvtudq2pd", VR256X, VR512, uint_to_fp,
4556                                  loadv4i64, f256mem, v8f64, v8i32,
4557                                  SSEPackedDouble>, EVEX_V512, XS,
4558                                  EVEX_CD8<32, CD8VH>;
4559
4560 defm VCVTUDQ2PSZ : avx512_vcvt_fp_with_rc<0x7A, "vcvtudq2ps", VR512, VR512, uint_to_fp,
4561                                  loadv16i32, f512mem, v16f32, v16i32,
4562                                  SSEPackedSingle>, EVEX_V512, XD,
4563                                  EVEX_CD8<32, CD8VF>;
4564
4565 def : Pat<(v8i32 (fp_to_uint (v8f32 VR256X:$src1))),
4566           (EXTRACT_SUBREG (v16i32 (VCVTTPS2UDQZrr
4567            (v16f32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)))), sub_ymm)>;
4568
4569 def : Pat<(v4i32 (fp_to_uint (v4f32 VR128X:$src1))),
4570           (EXTRACT_SUBREG (v16i32 (VCVTTPS2UDQZrr
4571            (v16f32 (SUBREG_TO_REG (i32 0), VR128X:$src1, sub_xmm)))), sub_xmm)>;
4572
4573 def : Pat<(v8f32 (uint_to_fp (v8i32 VR256X:$src1))),
4574           (EXTRACT_SUBREG (v16f32 (VCVTUDQ2PSZrr
4575            (v16i32 (SUBREG_TO_REG (i32 0), VR256X:$src1, sub_ymm)))), sub_ymm)>;
4576
4577 def : Pat<(v4f32 (uint_to_fp (v4i32 VR128X:$src1))),
4578           (EXTRACT_SUBREG (v16f32 (VCVTUDQ2PSZrr
4579            (v16i32 (SUBREG_TO_REG (i32 0), VR128X:$src1, sub_xmm)))), sub_xmm)>;
4580
4581 def : Pat<(v4f64 (uint_to_fp (v4i32 VR128X:$src1))),
4582           (EXTRACT_SUBREG (v8f64 (VCVTUDQ2PDZrr
4583            (v8i32 (SUBREG_TO_REG (i32 0), VR128X:$src1, sub_xmm)))), sub_ymm)>;
4584
4585 def : Pat<(v16f32 (int_x86_avx512_mask_cvtdq2ps_512 (v16i32 VR512:$src),
4586                    (bc_v16f32 (v16i32 immAllZerosV)), (i16 -1), imm:$rc)),
4587           (VCVTDQ2PSZrrb VR512:$src, imm:$rc)>;
4588 def : Pat<(v8f64 (int_x86_avx512_mask_cvtdq2pd_512 (v8i32 VR256X:$src),
4589                    (bc_v8f64 (v16i32 immAllZerosV)), (i8 -1))),
4590           (VCVTDQ2PDZrr VR256X:$src)>;
4591 def : Pat<(v16f32 (int_x86_avx512_mask_cvtudq2ps_512 (v16i32 VR512:$src),
4592                    (bc_v16f32 (v16i32 immAllZerosV)), (i16 -1), imm:$rc)),
4593           (VCVTUDQ2PSZrrb VR512:$src, imm:$rc)>;
4594 def : Pat<(v8f64 (int_x86_avx512_mask_cvtudq2pd_512 (v8i32 VR256X:$src),
4595                    (bc_v8f64 (v16i32 immAllZerosV)), (i8 -1))),
4596           (VCVTUDQ2PDZrr VR256X:$src)>;
4597
4598 multiclass avx512_vcvt_fp2int<bits<8> opc, string asm, RegisterClass SrcRC,
4599                RegisterClass DstRC, PatFrag mem_frag,
4600                X86MemOperand x86memop, Domain d> {
4601 let hasSideEffects = 0 in {
4602   def rr : AVX512PI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src),
4603               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4604               [], d>, EVEX;
4605   def rrb : AVX512PI<opc, MRMSrcReg, (outs DstRC:$dst), (ins SrcRC:$src, AVX512RC:$rc),
4606               !strconcat(asm,"\t{$rc, $src, $dst|$dst, $src, $rc}"),
4607               [], d>, EVEX, EVEX_B, EVEX_RC;
4608   let mayLoad = 1 in
4609   def rm : AVX512PI<opc, MRMSrcMem, (outs DstRC:$dst), (ins x86memop:$src),
4610               !strconcat(asm,"\t{$src, $dst|$dst, $src}"),
4611               [], d>, EVEX;
4612 } // hasSideEffects = 0
4613 }
4614
4615 defm VCVTPS2DQZ : avx512_vcvt_fp2int<0x5B, "vcvtps2dq", VR512, VR512,
4616                                  loadv16f32, f512mem, SSEPackedSingle>, PD,
4617                                  EVEX_V512, EVEX_CD8<32, CD8VF>;
4618 defm VCVTPD2DQZ : avx512_vcvt_fp2int<0xE6, "vcvtpd2dq", VR512, VR256X,
4619                                  loadv8f64, f512mem, SSEPackedDouble>, XD, VEX_W,
4620                                  EVEX_V512, EVEX_CD8<64, CD8VF>;
4621
4622 def : Pat <(v16i32 (int_x86_avx512_mask_cvtps2dq_512 (v16f32 VR512:$src),
4623                     (v16i32 immAllZerosV), (i16 -1), imm:$rc)),
4624            (VCVTPS2DQZrrb VR512:$src, imm:$rc)>;
4625
4626 def : Pat <(v8i32 (int_x86_avx512_mask_cvtpd2dq_512 (v8f64 VR512:$src),
4627                     (v8i32 immAllZerosV), (i8 -1), imm:$rc)),
4628            (VCVTPD2DQZrrb VR512:$src, imm:$rc)>;
4629
4630 defm VCVTPS2UDQZ : avx512_vcvt_fp2int<0x79, "vcvtps2udq", VR512, VR512,
4631                                  loadv16f32, f512mem, SSEPackedSingle>,
4632                                  PS, EVEX_V512, EVEX_CD8<32, CD8VF>;
4633 defm VCVTPD2UDQZ : avx512_vcvt_fp2int<0x79, "vcvtpd2udq", VR512, VR256X,
4634                                  loadv8f64, f512mem, SSEPackedDouble>, VEX_W,
4635                                  PS, EVEX_V512, EVEX_CD8<64, CD8VF>;
4636
4637 def : Pat <(v16i32 (int_x86_avx512_mask_cvtps2udq_512 (v16f32 VR512:$src),
4638                     (v16i32 immAllZerosV), (i16 -1), imm:$rc)),
4639            (VCVTPS2UDQZrrb VR512:$src, imm:$rc)>;
4640
4641 def : Pat <(v8i32 (int_x86_avx512_mask_cvtpd2udq_512 (v8f64 VR512:$src),
4642                     (v8i32 immAllZerosV), (i8 -1), imm:$rc)),
4643            (VCVTPD2UDQZrrb VR512:$src, imm:$rc)>;
4644
4645 let Predicates = [HasAVX512] in {
4646   def : Pat<(v8f32 (fround (loadv8f64 addr:$src))),
4647             (VCVTPD2PSZrm addr:$src)>;
4648   def : Pat<(v8f64 (extloadv8f32 addr:$src)),
4649             (VCVTPS2PDZrm addr:$src)>;
4650 }
4651
4652 //===----------------------------------------------------------------------===//
4653 // Half precision conversion instructions
4654 //===----------------------------------------------------------------------===//
4655 multiclass avx512_cvtph2ps<RegisterClass destRC, RegisterClass srcRC,
4656                              X86MemOperand x86memop> {
4657   def rr : AVX5128I<0x13, MRMSrcReg, (outs destRC:$dst), (ins srcRC:$src),
4658              "vcvtph2ps\t{$src, $dst|$dst, $src}",
4659              []>, EVEX;
4660   let hasSideEffects = 0, mayLoad = 1 in
4661   def rm : AVX5128I<0x13, MRMSrcMem, (outs destRC:$dst), (ins x86memop:$src),
4662              "vcvtph2ps\t{$src, $dst|$dst, $src}", []>, EVEX;
4663 }
4664
4665 multiclass avx512_cvtps2ph<RegisterClass destRC, RegisterClass srcRC,
4666                              X86MemOperand x86memop> {
4667   def rr : AVX512AIi8<0x1D, MRMDestReg, (outs destRC:$dst),
4668                (ins srcRC:$src1, i32u8imm:$src2),
4669                "vcvtps2ph\t{$src2, $src1, $dst|$dst, $src1, $src2}",
4670                []>, EVEX;
4671   let hasSideEffects = 0, mayStore = 1 in
4672   def mr : AVX512AIi8<0x1D, MRMDestMem, (outs),
4673                (ins x86memop:$dst, srcRC:$src1, i32u8imm:$src2),
4674                "vcvtps2ph\t{$src2, $src1, $dst|$dst, $src1, $src2}", []>, EVEX;
4675 }
4676
4677 defm VCVTPH2PSZ : avx512_cvtph2ps<VR512, VR256X, f256mem>, EVEX_V512,
4678                                     EVEX_CD8<32, CD8VH>;
4679 defm VCVTPS2PHZ : avx512_cvtps2ph<VR256X, VR512, f256mem>, EVEX_V512,
4680                                     EVEX_CD8<32, CD8VH>;
4681
4682 def : Pat<(v16i16 (int_x86_avx512_mask_vcvtps2ph_512 (v16f32 VR512:$src),
4683            imm:$rc, (bc_v16i16(v8i32 immAllZerosV)), (i16 -1))),
4684            (VCVTPS2PHZrr VR512:$src, imm:$rc)>;
4685
4686 def : Pat<(v16f32 (int_x86_avx512_mask_vcvtph2ps_512 (v16i16 VR256X:$src),
4687            (bc_v16f32(v16i32 immAllZerosV)), (i16 -1), (i32 FROUND_CURRENT))),
4688            (VCVTPH2PSZrr VR256X:$src)>;
4689
4690 let Defs = [EFLAGS], Predicates = [HasAVX512] in {
4691   defm VUCOMISSZ : sse12_ord_cmp<0x2E, FR32X, X86cmp, f32, f32mem, loadf32,
4692                                  "ucomiss">, PS, EVEX, VEX_LIG,
4693                                  EVEX_CD8<32, CD8VT1>;
4694   defm VUCOMISDZ : sse12_ord_cmp<0x2E, FR64X, X86cmp, f64, f64mem, loadf64,
4695                                   "ucomisd">, PD, EVEX,
4696                                   VEX_LIG, VEX_W, EVEX_CD8<64, CD8VT1>;
4697   let Pattern = []<dag> in {
4698     defm VCOMISSZ  : sse12_ord_cmp<0x2F, VR128X, undef, v4f32, f128mem, load,
4699                                    "comiss">, PS, EVEX, VEX_LIG,
4700                                    EVEX_CD8<32, CD8VT1>;
4701     defm VCOMISDZ  : sse12_ord_cmp<0x2F, VR128X, undef, v2f64, f128mem, load,
4702                                    "comisd">, PD, EVEX,
4703                                     VEX_LIG, VEX_W, EVEX_CD8<64, CD8VT1>;
4704   }
4705   let isCodeGenOnly = 1 in {
4706     defm Int_VUCOMISSZ  : sse12_ord_cmp<0x2E, VR128X, X86ucomi, v4f32, f128mem,
4707                               load, "ucomiss">, PS, EVEX, VEX_LIG,
4708                               EVEX_CD8<32, CD8VT1>;
4709     defm Int_VUCOMISDZ  : sse12_ord_cmp<0x2E, VR128X, X86ucomi, v2f64, f128mem,
4710                               load, "ucomisd">, PD, EVEX,
4711                               VEX_LIG, VEX_W, EVEX_CD8<64, CD8VT1>;
4712
4713     defm Int_VCOMISSZ  : sse12_ord_cmp<0x2F, VR128X, X86comi, v4f32, f128mem,
4714                               load, "comiss">, PS, EVEX, VEX_LIG,
4715                               EVEX_CD8<32, CD8VT1>;
4716     defm Int_VCOMISDZ  : sse12_ord_cmp<0x2F, VR128X, X86comi, v2f64, f128mem,
4717                               load, "comisd">, PD, EVEX,
4718                               VEX_LIG, VEX_W, EVEX_CD8<64, CD8VT1>;
4719   }
4720 }
4721
4722 /// avx512_fp14_s rcp14ss, rcp14sd, rsqrt14ss, rsqrt14sd
4723 multiclass avx512_fp14_s<bits<8> opc, string OpcodeStr, RegisterClass RC,
4724                             X86MemOperand x86memop> {
4725   let hasSideEffects = 0 in {
4726   def rr : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
4727                (ins RC:$src1, RC:$src2),
4728                !strconcat(OpcodeStr,
4729                "\t{$src2, $src1, $dst|$dst, $src1, $src2}"), []>, EVEX_4V;
4730   let mayLoad = 1 in {
4731   def rm : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
4732                (ins RC:$src1, x86memop:$src2),
4733                !strconcat(OpcodeStr,
4734                "\t{$src2, $src1, $dst|$dst, $src1, $src2}"), []>, EVEX_4V;
4735   }
4736 }
4737 }
4738
4739 defm VRCP14SS   : avx512_fp14_s<0x4D, "vrcp14ss", FR32X, f32mem>,
4740                   EVEX_CD8<32, CD8VT1>;
4741 defm VRCP14SD   : avx512_fp14_s<0x4D, "vrcp14sd", FR64X, f64mem>,
4742                   VEX_W, EVEX_CD8<64, CD8VT1>;
4743 defm VRSQRT14SS   : avx512_fp14_s<0x4F, "vrsqrt14ss", FR32X, f32mem>,
4744                   EVEX_CD8<32, CD8VT1>;
4745 defm VRSQRT14SD   : avx512_fp14_s<0x4F, "vrsqrt14sd", FR64X, f64mem>,
4746                   VEX_W, EVEX_CD8<64, CD8VT1>;
4747
4748 def : Pat <(v4f32 (int_x86_avx512_rcp14_ss (v4f32 VR128X:$src1),
4749               (v4f32 VR128X:$src2), (bc_v4f32 (v4i32 immAllZerosV)), (i8 -1))),
4750            (COPY_TO_REGCLASS (VRCP14SSrr (COPY_TO_REGCLASS VR128X:$src1, FR32X),
4751                        (COPY_TO_REGCLASS VR128X:$src2, FR32X)), VR128X)>;
4752
4753 def : Pat <(v2f64 (int_x86_avx512_rcp14_sd (v2f64 VR128X:$src1),
4754               (v2f64 VR128X:$src2), (bc_v2f64 (v4i32 immAllZerosV)), (i8 -1))),
4755            (COPY_TO_REGCLASS (VRCP14SDrr (COPY_TO_REGCLASS VR128X:$src1, FR64X),
4756                        (COPY_TO_REGCLASS VR128X:$src2, FR64X)), VR128X)>;
4757
4758 def : Pat <(v4f32 (int_x86_avx512_rsqrt14_ss (v4f32 VR128X:$src1),
4759               (v4f32 VR128X:$src2), (bc_v4f32 (v4i32 immAllZerosV)), (i8 -1))),
4760            (COPY_TO_REGCLASS (VRSQRT14SSrr (COPY_TO_REGCLASS VR128X:$src1, FR32X),
4761                        (COPY_TO_REGCLASS VR128X:$src2, FR32X)), VR128X)>;
4762
4763 def : Pat <(v2f64 (int_x86_avx512_rsqrt14_sd (v2f64 VR128X:$src1),
4764               (v2f64 VR128X:$src2), (bc_v2f64 (v4i32 immAllZerosV)), (i8 -1))),
4765            (COPY_TO_REGCLASS (VRSQRT14SDrr (COPY_TO_REGCLASS VR128X:$src1, FR64X),
4766                        (COPY_TO_REGCLASS VR128X:$src2, FR64X)), VR128X)>;
4767
4768 /// avx512_fp14_p rcp14ps, rcp14pd, rsqrt14ps, rsqrt14pd
4769 multiclass avx512_fp14_p<bits<8> opc, string OpcodeStr, SDNode OpNode,
4770                          X86VectorVTInfo _> {
4771   defm r: AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
4772                          (ins _.RC:$src), OpcodeStr, "$src", "$src",
4773                          (_.FloatVT (OpNode _.RC:$src))>, EVEX, T8PD;
4774   let mayLoad = 1 in {
4775     defm m: AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
4776                            (ins _.MemOp:$src), OpcodeStr, "$src", "$src",
4777                            (OpNode (_.FloatVT
4778                              (bitconvert (_.LdFrag addr:$src))))>, EVEX, T8PD;
4779     defm mb: AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
4780                             (ins _.ScalarMemOp:$src), OpcodeStr,
4781                             "${src}"##_.BroadcastStr, "${src}"##_.BroadcastStr,
4782                             (OpNode (_.FloatVT
4783                               (X86VBroadcast (_.ScalarLdFrag addr:$src))))>,
4784                             EVEX, T8PD, EVEX_B;
4785   }
4786 }
4787
4788 multiclass avx512_fp14_p_vl_all<bits<8> opc, string OpcodeStr, SDNode OpNode> {
4789   defm PSZ : avx512_fp14_p<opc, !strconcat(OpcodeStr, "ps"), OpNode, v16f32_info>,
4790                           EVEX_V512, EVEX_CD8<32, CD8VF>;
4791   defm PDZ : avx512_fp14_p<opc, !strconcat(OpcodeStr, "pd"), OpNode, v8f64_info>,
4792                           EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
4793
4794   // Define only if AVX512VL feature is present.
4795   let Predicates = [HasVLX] in {
4796     defm PSZ128 : avx512_fp14_p<opc, !strconcat(OpcodeStr, "ps"),
4797                                 OpNode, v4f32x_info>,
4798                                EVEX_V128, EVEX_CD8<32, CD8VF>;
4799     defm PSZ256 : avx512_fp14_p<opc, !strconcat(OpcodeStr, "ps"),
4800                                 OpNode, v8f32x_info>,
4801                                EVEX_V256, EVEX_CD8<32, CD8VF>;
4802     defm PDZ128 : avx512_fp14_p<opc, !strconcat(OpcodeStr, "pd"),
4803                                 OpNode, v2f64x_info>,
4804                                EVEX_V128, VEX_W, EVEX_CD8<64, CD8VF>;
4805     defm PDZ256 : avx512_fp14_p<opc, !strconcat(OpcodeStr, "pd"),
4806                                 OpNode, v4f64x_info>,
4807                                EVEX_V256, VEX_W, EVEX_CD8<64, CD8VF>;
4808   }
4809 }
4810
4811 defm VRSQRT14 : avx512_fp14_p_vl_all<0x4E, "vrsqrt14", X86frsqrt>;
4812 defm VRCP14 : avx512_fp14_p_vl_all<0x4C, "vrcp14", X86frcp>;
4813
4814 def : Pat <(v16f32 (int_x86_avx512_rsqrt14_ps_512 (v16f32 VR512:$src),
4815               (bc_v16f32 (v16i32 immAllZerosV)), (i16 -1))),
4816            (VRSQRT14PSZr VR512:$src)>;
4817 def : Pat <(v8f64 (int_x86_avx512_rsqrt14_pd_512 (v8f64 VR512:$src),
4818               (bc_v8f64 (v16i32 immAllZerosV)), (i8 -1))),
4819            (VRSQRT14PDZr VR512:$src)>;
4820
4821 def : Pat <(v16f32 (int_x86_avx512_rcp14_ps_512 (v16f32 VR512:$src),
4822               (bc_v16f32 (v16i32 immAllZerosV)), (i16 -1))),
4823            (VRCP14PSZr VR512:$src)>;
4824 def : Pat <(v8f64 (int_x86_avx512_rcp14_pd_512 (v8f64 VR512:$src),
4825               (bc_v8f64 (v16i32 immAllZerosV)), (i8 -1))),
4826            (VRCP14PDZr VR512:$src)>;
4827
4828 /// avx512_fp28_s rcp28ss, rcp28sd, rsqrt28ss, rsqrt28sd
4829 multiclass avx512_fp28_s<bits<8> opc, string OpcodeStr,X86VectorVTInfo _,
4830                          SDNode OpNode> {
4831
4832   defm r : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
4833                            (ins _.RC:$src1, _.RC:$src2), OpcodeStr,
4834                            "$src2, $src1", "$src1, $src2",
4835                            (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
4836                            (i32 FROUND_CURRENT))>;
4837
4838   defm rb : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
4839                             (ins _.RC:$src1, _.RC:$src2), OpcodeStr,
4840                             "{sae}, $src2, $src1", "$src1, $src2, {sae}",
4841                             (OpNode (_.VT _.RC:$src1), (_.VT _.RC:$src2),
4842                             (i32 FROUND_NO_EXC))>, EVEX_B;
4843
4844   defm m : AVX512_maskable_scalar<opc, MRMSrcMem, _, (outs _.RC:$dst),
4845                          (ins _.RC:$src1, _.MemOp:$src2), OpcodeStr,
4846                          "$src2, $src1", "$src1, $src2",
4847                          (OpNode (_.VT _.RC:$src1),
4848                           (_.VT (scalar_to_vector (_.ScalarLdFrag addr:$src2))),
4849                          (i32 FROUND_CURRENT))>;
4850 }
4851
4852 multiclass avx512_eri_s<bits<8> opc, string OpcodeStr, SDNode OpNode> {
4853   defm SS : avx512_fp28_s<opc, OpcodeStr#"ss", f32x_info, OpNode>,
4854               EVEX_CD8<32, CD8VT1>;
4855   defm SD : avx512_fp28_s<opc, OpcodeStr#"sd", f64x_info, OpNode>,
4856               EVEX_CD8<64, CD8VT1>, VEX_W;
4857 }
4858
4859 let hasSideEffects = 0, Predicates = [HasERI] in {
4860   defm VRCP28   : avx512_eri_s<0xCB, "vrcp28",   X86rcp28s>,   T8PD, EVEX_4V;
4861   defm VRSQRT28 : avx512_eri_s<0xCD, "vrsqrt28", X86rsqrt28s>, T8PD, EVEX_4V;
4862 }
4863 /// avx512_fp28_p rcp28ps, rcp28pd, rsqrt28ps, rsqrt28pd
4864
4865 multiclass avx512_fp28_p<bits<8> opc, string OpcodeStr, X86VectorVTInfo _,
4866                          SDNode OpNode> {
4867
4868   defm r : AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
4869                          (ins _.RC:$src), OpcodeStr, "$src", "$src",
4870                          (OpNode (_.VT _.RC:$src), (i32 FROUND_CURRENT))>;
4871
4872   defm rb : AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
4873                         (ins _.RC:$src), OpcodeStr,
4874                         "{sae}, $src", "$src, {sae}",
4875                         (OpNode (_.VT _.RC:$src), (i32 FROUND_NO_EXC))>, EVEX_B;
4876
4877   defm m : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
4878                          (ins _.MemOp:$src), OpcodeStr, "$src", "$src",
4879                          (OpNode (_.FloatVT
4880                              (bitconvert (_.LdFrag addr:$src))),
4881                           (i32 FROUND_CURRENT))>;
4882
4883   defm mb : AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
4884                          (ins _.MemOp:$src), OpcodeStr, "$src", "$src",
4885                          (OpNode (_.FloatVT
4886                                   (X86VBroadcast (_.ScalarLdFrag addr:$src))),
4887                                  (i32 FROUND_CURRENT))>, EVEX_B;
4888 }
4889
4890 multiclass  avx512_eri<bits<8> opc, string OpcodeStr, SDNode OpNode> {
4891    defm PS : avx512_fp28_p<opc, OpcodeStr#"ps", v16f32_info, OpNode>,
4892                      EVEX_CD8<32, CD8VF>;
4893    defm PD : avx512_fp28_p<opc, OpcodeStr#"pd", v8f64_info, OpNode>,
4894                      VEX_W, EVEX_CD8<32, CD8VF>;
4895 }
4896
4897 let Predicates = [HasERI], hasSideEffects = 0 in {
4898
4899  defm VRSQRT28 : avx512_eri<0xCC, "vrsqrt28", X86rsqrt28>, EVEX, EVEX_V512, T8PD;
4900  defm VRCP28   : avx512_eri<0xCA, "vrcp28",   X86rcp28>,   EVEX, EVEX_V512, T8PD;
4901  defm VEXP2    : avx512_eri<0xC8, "vexp2",    X86exp2>,    EVEX, EVEX_V512, T8PD;
4902 }
4903
4904 multiclass avx512_sqrt_packed<bits<8> opc, string OpcodeStr,
4905                               SDNode OpNode, X86VectorVTInfo _>{
4906   defm r: AVX512_maskable<opc, MRMSrcReg, _, (outs _.RC:$dst),
4907                          (ins _.RC:$src), OpcodeStr, "$src", "$src",
4908                          (_.FloatVT (OpNode _.RC:$src))>, EVEX;
4909   let mayLoad = 1 in {
4910     defm m: AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
4911                            (ins _.MemOp:$src), OpcodeStr, "$src", "$src",
4912                            (OpNode (_.FloatVT
4913                              (bitconvert (_.LdFrag addr:$src))))>, EVEX;
4914
4915     defm mb: AVX512_maskable<opc, MRMSrcMem, _, (outs _.RC:$dst),
4916                             (ins _.ScalarMemOp:$src), OpcodeStr,
4917                             "${src}"##_.BroadcastStr, "${src}"##_.BroadcastStr,
4918                             (OpNode (_.FloatVT
4919                               (X86VBroadcast (_.ScalarLdFrag addr:$src))))>,
4920                             EVEX, EVEX_B;
4921   }
4922 }
4923
4924 multiclass avx512_sqrt_scalar<bits<8> opc, string OpcodeStr,
4925                           Intrinsic F32Int, Intrinsic F64Int,
4926                           OpndItins itins_s, OpndItins itins_d> {
4927   def SSZr : SI<opc, MRMSrcReg, (outs FR32X:$dst),
4928                (ins FR32X:$src1, FR32X:$src2),
4929                !strconcat(OpcodeStr,
4930                           "ss\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
4931                       [], itins_s.rr>, XS, EVEX_4V;
4932   let isCodeGenOnly = 1 in
4933   def SSZr_Int : SIi8<opc, MRMSrcReg, (outs VR128X:$dst),
4934                (ins VR128X:$src1, VR128X:$src2),
4935                !strconcat(OpcodeStr,
4936                 "ss\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
4937                [(set VR128X:$dst,
4938                  (F32Int VR128X:$src1, VR128X:$src2))],
4939                itins_s.rr>, XS, EVEX_4V;
4940   let mayLoad = 1 in {
4941   def SSZm : SI<opc, MRMSrcMem, (outs FR32X:$dst),
4942                (ins FR32X:$src1, f32mem:$src2),
4943                !strconcat(OpcodeStr,
4944                           "ss\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
4945                       [], itins_s.rm>, XS, EVEX_4V, EVEX_CD8<32, CD8VT1>;
4946   let isCodeGenOnly = 1 in
4947   def SSZm_Int : SIi8<opc, MRMSrcMem, (outs VR128X:$dst),
4948                    (ins VR128X:$src1, ssmem:$src2),
4949                    !strconcat(OpcodeStr,
4950                  "ss\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
4951                    [(set VR128X:$dst,
4952                      (F32Int VR128X:$src1, sse_load_f32:$src2))],
4953                    itins_s.rm>, XS, EVEX_4V, EVEX_CD8<32, CD8VT1>;
4954   }
4955   def SDZr : SI<opc, MRMSrcReg, (outs FR64X:$dst),
4956                (ins FR64X:$src1, FR64X:$src2),
4957                !strconcat(OpcodeStr,
4958                           "sd\t{$src2, $src1, $dst|$dst, $src1, $src2}"), []>,
4959                       XD, EVEX_4V, VEX_W;
4960   let isCodeGenOnly = 1 in
4961   def SDZr_Int : SIi8<opc, MRMSrcReg, (outs VR128X:$dst),
4962                (ins VR128X:$src1, VR128X:$src2),
4963                !strconcat(OpcodeStr,
4964                 "sd\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
4965                [(set VR128X:$dst,
4966                  (F64Int VR128X:$src1, VR128X:$src2))],
4967                itins_s.rr>, XD, EVEX_4V, VEX_W;
4968   let mayLoad = 1 in {
4969   def SDZm : SI<opc, MRMSrcMem, (outs FR64X:$dst),
4970                (ins FR64X:$src1, f64mem:$src2),
4971                !strconcat(OpcodeStr,
4972                   "sd\t{$src2, $src1, $dst|$dst, $src1, $src2}"), []>,
4973                XD, EVEX_4V, VEX_W, EVEX_CD8<64, CD8VT1>;
4974   let isCodeGenOnly = 1 in
4975   def SDZm_Int : SIi8<opc, MRMSrcMem, (outs VR128X:$dst),
4976                   (ins VR128X:$src1, sdmem:$src2),
4977                    !strconcat(OpcodeStr,
4978                   "sd\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
4979                   [(set VR128X:$dst,
4980                     (F64Int VR128X:$src1, sse_load_f64:$src2))]>,
4981                   XD, EVEX_4V, VEX_W, EVEX_CD8<64, CD8VT1>;
4982   }
4983 }
4984
4985 multiclass avx512_sqrt_packed_all<bits<8> opc, string OpcodeStr,
4986                                   SDNode OpNode> {
4987   defm PSZ : avx512_sqrt_packed<opc, !strconcat(OpcodeStr, "ps"), OpNode,
4988                                 v16f32_info>,
4989                                 EVEX_V512, PS, EVEX_CD8<32, CD8VF>;
4990   defm PDZ : avx512_sqrt_packed<opc, !strconcat(OpcodeStr, "pd"), OpNode,
4991                                 v8f64_info>,
4992                                 EVEX_V512, VEX_W, PD, EVEX_CD8<64, CD8VF>;
4993   // Define only if AVX512VL feature is present.
4994   let Predicates = [HasVLX] in {
4995     defm PSZ128 : avx512_sqrt_packed<opc, !strconcat(OpcodeStr, "ps"),
4996                                      OpNode, v4f32x_info>,
4997                                      EVEX_V128, PS, EVEX_CD8<32, CD8VF>;
4998     defm PSZ256 : avx512_sqrt_packed<opc, !strconcat(OpcodeStr, "ps"),
4999                                      OpNode, v8f32x_info>,
5000                                      EVEX_V256, PS, EVEX_CD8<32, CD8VF>;
5001     defm PDZ128 : avx512_sqrt_packed<opc, !strconcat(OpcodeStr, "pd"),
5002                                      OpNode, v2f64x_info>,
5003                                      EVEX_V128, VEX_W, PD, EVEX_CD8<64, CD8VF>;
5004     defm PDZ256 : avx512_sqrt_packed<opc, !strconcat(OpcodeStr, "pd"),
5005                                      OpNode, v4f64x_info>,
5006                                      EVEX_V256, VEX_W, PD, EVEX_CD8<64, CD8VF>;
5007   }
5008 }
5009
5010 defm VSQRT : avx512_sqrt_packed_all<0x51, "vsqrt", fsqrt>;
5011
5012 defm VSQRT  : avx512_sqrt_scalar<0x51, "sqrt",
5013                 int_x86_avx512_sqrt_ss, int_x86_avx512_sqrt_sd,
5014                 SSE_SQRTSS, SSE_SQRTSD>;
5015
5016 let Predicates = [HasAVX512] in {
5017   def : Pat<(v16f32 (int_x86_avx512_sqrt_ps_512 (v16f32 VR512:$src1),
5018                     (bc_v16f32 (v16i32 immAllZerosV)), (i16 -1), FROUND_CURRENT)),
5019                    (VSQRTPSZr VR512:$src1)>;
5020   def : Pat<(v8f64 (int_x86_avx512_sqrt_pd_512 (v8f64 VR512:$src1),
5021                     (bc_v8f64 (v16i32 immAllZerosV)), (i8 -1), FROUND_CURRENT)),
5022                    (VSQRTPDZr VR512:$src1)>;
5023
5024   def : Pat<(f32 (fsqrt FR32X:$src)),
5025             (VSQRTSSZr (f32 (IMPLICIT_DEF)), FR32X:$src)>;
5026   def : Pat<(f32 (fsqrt (load addr:$src))),
5027             (VSQRTSSZm (f32 (IMPLICIT_DEF)), addr:$src)>,
5028             Requires<[OptForSize]>;
5029   def : Pat<(f64 (fsqrt FR64X:$src)),
5030             (VSQRTSDZr (f64 (IMPLICIT_DEF)), FR64X:$src)>;
5031   def : Pat<(f64 (fsqrt (load addr:$src))),
5032             (VSQRTSDZm (f64 (IMPLICIT_DEF)), addr:$src)>,
5033             Requires<[OptForSize]>;
5034
5035   def : Pat<(f32 (X86frsqrt FR32X:$src)),
5036             (VRSQRT14SSrr (f32 (IMPLICIT_DEF)), FR32X:$src)>;
5037   def : Pat<(f32 (X86frsqrt (load addr:$src))),
5038             (VRSQRT14SSrm (f32 (IMPLICIT_DEF)), addr:$src)>,
5039             Requires<[OptForSize]>;
5040
5041   def : Pat<(f32 (X86frcp FR32X:$src)),
5042             (VRCP14SSrr (f32 (IMPLICIT_DEF)), FR32X:$src)>;
5043   def : Pat<(f32 (X86frcp (load addr:$src))),
5044             (VRCP14SSrm (f32 (IMPLICIT_DEF)), addr:$src)>,
5045             Requires<[OptForSize]>;
5046
5047   def : Pat<(int_x86_sse_sqrt_ss VR128X:$src),
5048             (COPY_TO_REGCLASS (VSQRTSSZr (f32 (IMPLICIT_DEF)),
5049                                         (COPY_TO_REGCLASS VR128X:$src, FR32)),
5050                               VR128X)>;
5051   def : Pat<(int_x86_sse_sqrt_ss sse_load_f32:$src),
5052             (VSQRTSSZm_Int (v4f32 (IMPLICIT_DEF)), sse_load_f32:$src)>;
5053
5054   def : Pat<(int_x86_sse2_sqrt_sd VR128X:$src),
5055             (COPY_TO_REGCLASS (VSQRTSDZr (f64 (IMPLICIT_DEF)),
5056                                         (COPY_TO_REGCLASS VR128X:$src, FR64)),
5057                               VR128X)>;
5058   def : Pat<(int_x86_sse2_sqrt_sd sse_load_f64:$src),
5059             (VSQRTSDZm_Int (v2f64 (IMPLICIT_DEF)), sse_load_f64:$src)>;
5060 }
5061
5062
5063 multiclass avx512_rndscale<bits<8> opc, string OpcodeStr,
5064                             X86MemOperand x86memop, RegisterClass RC,
5065                             PatFrag mem_frag, Domain d> {
5066 let ExeDomain = d in {
5067   // Intrinsic operation, reg.
5068   // Vector intrinsic operation, reg
5069   def r : AVX512AIi8<opc, MRMSrcReg,
5070                     (outs RC:$dst), (ins RC:$src1, i32u8imm:$src2),
5071                     !strconcat(OpcodeStr,
5072                     "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
5073                     []>, EVEX;
5074
5075   // Vector intrinsic operation, mem
5076   def m : AVX512AIi8<opc, MRMSrcMem,
5077                     (outs RC:$dst), (ins x86memop:$src1, i32u8imm:$src2),
5078                     !strconcat(OpcodeStr,
5079                     "\t{$src2, $src1, $dst|$dst, $src1, $src2}"),
5080                     []>, EVEX;
5081 } // ExeDomain
5082 }
5083
5084 defm VRNDSCALEPSZ : avx512_rndscale<0x08, "vrndscaleps", f512mem, VR512,
5085                                 loadv16f32, SSEPackedSingle>, EVEX_V512,
5086                                 EVEX_CD8<32, CD8VF>;
5087
5088 def : Pat<(v16f32 (int_x86_avx512_mask_rndscale_ps_512 (v16f32 VR512:$src1),
5089                    imm:$src2, (v16f32 VR512:$src1), (i16 -1),
5090                    FROUND_CURRENT)),
5091                    (VRNDSCALEPSZr VR512:$src1, imm:$src2)>;
5092
5093
5094 defm VRNDSCALEPDZ : avx512_rndscale<0x09, "vrndscalepd", f512mem, VR512,
5095                                 loadv8f64, SSEPackedDouble>, EVEX_V512,
5096                                 VEX_W, EVEX_CD8<64, CD8VF>;
5097
5098 def : Pat<(v8f64 (int_x86_avx512_mask_rndscale_pd_512 (v8f64 VR512:$src1),
5099                   imm:$src2, (v8f64 VR512:$src1), (i8 -1),
5100                   FROUND_CURRENT)),
5101                    (VRNDSCALEPDZr VR512:$src1, imm:$src2)>;
5102
5103 multiclass
5104 avx512_rndscale_scalar<bits<8> opc, string OpcodeStr, X86VectorVTInfo _> {
5105
5106   let ExeDomain = _.ExeDomain in {
5107   defm r : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
5108                            (ins _.RC:$src1, _.RC:$src2, i32u8imm:$src3), OpcodeStr,
5109                            "$src3, $src2, $src1", "$src1, $src2, $src3",
5110                            (_.VT (X86RndScale (_.VT _.RC:$src1), (_.VT _.RC:$src2),
5111                             (i32 imm:$src3), (i32 FROUND_CURRENT)))>;
5112
5113   defm rb : AVX512_maskable_scalar<opc, MRMSrcReg, _, (outs _.RC:$dst),
5114                          (ins _.RC:$src1, _.RC:$src2, i32u8imm:$src3), OpcodeStr,
5115                          "{sae}, $src3, $src2, $src1", "$src1, $src2, $src3, {sae}",
5116                          (_.VT (X86RndScale (_.VT _.RC:$src1), (_.VT _.RC:$src2),
5117                          (i32 imm:$src3), (i32 FROUND_NO_EXC)))>, EVEX_B;
5118
5119   let mayLoad = 1 in
5120   defm m : AVX512_maskable_scalar<opc, MRMSrcMem, _, (outs _.RC:$dst),
5121                          (ins _.RC:$src1, _.MemOp:$src2, i32u8imm:$src3), OpcodeStr,
5122                          "$src3, $src2, $src1", "$src1, $src2, $src3",
5123                          (_.VT (X86RndScale (_.VT _.RC:$src1),
5124                           (_.VT (scalar_to_vector (_.ScalarLdFrag addr:$src2))),
5125                           (i32 imm:$src3), (i32 FROUND_CURRENT)))>;
5126   }
5127   let Predicates = [HasAVX512] in {
5128   def : Pat<(ffloor _.FRC:$src), (COPY_TO_REGCLASS
5129              (_.VT (!cast<Instruction>(NAME##r) (_.VT (IMPLICIT_DEF)),
5130              (_.VT (COPY_TO_REGCLASS _.FRC:$src, _.RC)), (i32 0x1))), _.FRC)>;
5131   def : Pat<(fceil _.FRC:$src), (COPY_TO_REGCLASS
5132              (_.VT (!cast<Instruction>(NAME##r) (_.VT (IMPLICIT_DEF)),
5133              (_.VT (COPY_TO_REGCLASS _.FRC:$src, _.RC)), (i32 0x2))), _.FRC)>;
5134   def : Pat<(ftrunc _.FRC:$src), (COPY_TO_REGCLASS
5135              (_.VT (!cast<Instruction>(NAME##r) (_.VT (IMPLICIT_DEF)),
5136              (_.VT (COPY_TO_REGCLASS _.FRC:$src, _.RC)), (i32 0x3))), _.FRC)>;
5137   def : Pat<(frint _.FRC:$src), (COPY_TO_REGCLASS
5138              (_.VT (!cast<Instruction>(NAME##r) (_.VT (IMPLICIT_DEF)),
5139              (_.VT (COPY_TO_REGCLASS _.FRC:$src, _.RC)), (i32 0x4))), _.FRC)>;
5140   def : Pat<(fnearbyint _.FRC:$src), (COPY_TO_REGCLASS
5141              (_.VT (!cast<Instruction>(NAME##r) (_.VT (IMPLICIT_DEF)),
5142              (_.VT (COPY_TO_REGCLASS _.FRC:$src, _.RC)), (i32 0xc))), _.FRC)>;
5143
5144   def : Pat<(ffloor (_.ScalarLdFrag addr:$src)), (COPY_TO_REGCLASS
5145              (_.VT (!cast<Instruction>(NAME##m) (_.VT (IMPLICIT_DEF)),
5146              addr:$src, (i32 0x1))), _.FRC)>;
5147   def : Pat<(fceil (_.ScalarLdFrag addr:$src)), (COPY_TO_REGCLASS
5148              (_.VT (!cast<Instruction>(NAME##m) (_.VT (IMPLICIT_DEF)),
5149              addr:$src, (i32 0x2))), _.FRC)>;
5150   def : Pat<(ftrunc (_.ScalarLdFrag addr:$src)), (COPY_TO_REGCLASS
5151              (_.VT (!cast<Instruction>(NAME##m) (_.VT (IMPLICIT_DEF)),
5152              addr:$src, (i32 0x3))), _.FRC)>;
5153   def : Pat<(frint (_.ScalarLdFrag addr:$src)), (COPY_TO_REGCLASS
5154              (_.VT (!cast<Instruction>(NAME##m) (_.VT (IMPLICIT_DEF)),
5155              addr:$src, (i32 0x4))), _.FRC)>;
5156   def : Pat<(fnearbyint (_.ScalarLdFrag addr:$src)), (COPY_TO_REGCLASS
5157              (_.VT (!cast<Instruction>(NAME##m) (_.VT (IMPLICIT_DEF)),
5158              addr:$src, (i32 0xc))), _.FRC)>;
5159   }
5160 }
5161
5162 defm VRNDSCALESS : avx512_rndscale_scalar<0x0A, "vrndscaless", f32x_info>,
5163                                 AVX512AIi8Base, EVEX_4V, EVEX_CD8<32, CD8VT1>;
5164
5165 defm VRNDSCALESD : avx512_rndscale_scalar<0x0B, "vrndscalesd", f64x_info>, VEX_W,
5166                                 AVX512AIi8Base, EVEX_4V, EVEX_CD8<64, CD8VT1>;
5167
5168 let Predicates = [HasAVX512] in {
5169 def : Pat<(v16f32 (ffloor VR512:$src)),
5170           (VRNDSCALEPSZr VR512:$src, (i32 0x1))>;
5171 def : Pat<(v16f32 (fnearbyint VR512:$src)),
5172           (VRNDSCALEPSZr VR512:$src, (i32 0xC))>;
5173 def : Pat<(v16f32 (fceil VR512:$src)),
5174           (VRNDSCALEPSZr VR512:$src, (i32 0x2))>;
5175 def : Pat<(v16f32 (frint VR512:$src)),
5176           (VRNDSCALEPSZr VR512:$src, (i32 0x4))>;
5177 def : Pat<(v16f32 (ftrunc VR512:$src)),
5178           (VRNDSCALEPSZr VR512:$src, (i32 0x3))>;
5179
5180 def : Pat<(v8f64 (ffloor VR512:$src)),
5181           (VRNDSCALEPDZr VR512:$src, (i32 0x1))>;
5182 def : Pat<(v8f64 (fnearbyint VR512:$src)),
5183           (VRNDSCALEPDZr VR512:$src, (i32 0xC))>;
5184 def : Pat<(v8f64 (fceil VR512:$src)),
5185           (VRNDSCALEPDZr VR512:$src, (i32 0x2))>;
5186 def : Pat<(v8f64 (frint VR512:$src)),
5187           (VRNDSCALEPDZr VR512:$src, (i32 0x4))>;
5188 def : Pat<(v8f64 (ftrunc VR512:$src)),
5189           (VRNDSCALEPDZr VR512:$src, (i32 0x3))>;
5190 }
5191 //-------------------------------------------------
5192 // Integer truncate and extend operations
5193 //-------------------------------------------------
5194
5195 multiclass avx512_trunc_sat<bits<8> opc, string OpcodeStr,
5196                           RegisterClass dstRC, RegisterClass srcRC,
5197                           RegisterClass KRC, X86MemOperand x86memop> {
5198   def rr : AVX512XS8I<opc, MRMDestReg, (outs dstRC:$dst),
5199                (ins srcRC:$src),
5200                !strconcat(OpcodeStr,"\t{$src, $dst|$dst, $src}"),
5201                []>, EVEX;
5202
5203   def rrk : AVX512XS8I<opc, MRMDestReg, (outs dstRC:$dst),
5204                (ins KRC:$mask, srcRC:$src),
5205                !strconcat(OpcodeStr,
5206                  "\t{$src, ${dst} {${mask}}|${dst} {${mask}}, $src}"),
5207                []>, EVEX, EVEX_K;
5208
5209   def rrkz : AVX512XS8I<opc, MRMDestReg, (outs dstRC:$dst),
5210                (ins KRC:$mask, srcRC:$src),
5211                !strconcat(OpcodeStr,
5212                  "\t{$src, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src}"),
5213                []>, EVEX, EVEX_KZ;
5214
5215   def mr : AVX512XS8I<opc, MRMDestMem, (outs), (ins x86memop:$dst, srcRC:$src),
5216                !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
5217                []>, EVEX;
5218
5219   def mrk : AVX512XS8I<opc, MRMDestMem, (outs),
5220                (ins x86memop:$dst, KRC:$mask, srcRC:$src),
5221                !strconcat(OpcodeStr, "\t{$src, $dst {${mask}}|${dst} {${mask}}, $src}"),
5222                []>, EVEX, EVEX_K;
5223
5224 }
5225 defm VPMOVQB    : avx512_trunc_sat<0x32, "vpmovqb",   VR128X, VR512, VK8WM,
5226                                  i128mem>, EVEX_V512, EVEX_CD8<8, CD8VO>;
5227 defm VPMOVSQB   : avx512_trunc_sat<0x22, "vpmovsqb",  VR128X, VR512, VK8WM,
5228                                  i128mem>, EVEX_V512, EVEX_CD8<8, CD8VO>;
5229 defm VPMOVUSQB  : avx512_trunc_sat<0x12, "vpmovusqb", VR128X, VR512, VK8WM,
5230                                  i128mem>, EVEX_V512, EVEX_CD8<8, CD8VO>;
5231 defm VPMOVQW    : avx512_trunc_sat<0x34, "vpmovqw",   VR128X, VR512, VK8WM,
5232                                  i128mem>, EVEX_V512, EVEX_CD8<16, CD8VQ>;
5233 defm VPMOVSQW   : avx512_trunc_sat<0x24, "vpmovsqw",  VR128X, VR512, VK8WM,
5234                                  i128mem>, EVEX_V512, EVEX_CD8<16, CD8VQ>;
5235 defm VPMOVUSQW  : avx512_trunc_sat<0x14, "vpmovusqw", VR128X, VR512, VK8WM,
5236                                  i128mem>, EVEX_V512, EVEX_CD8<16, CD8VQ>;
5237 defm VPMOVQD    : avx512_trunc_sat<0x35, "vpmovqd",   VR256X, VR512, VK8WM,
5238                                  i256mem>, EVEX_V512, EVEX_CD8<32, CD8VH>;
5239 defm VPMOVSQD   : avx512_trunc_sat<0x25, "vpmovsqd",  VR256X, VR512, VK8WM,
5240                                  i256mem>, EVEX_V512, EVEX_CD8<32, CD8VH>;
5241 defm VPMOVUSQD  : avx512_trunc_sat<0x15, "vpmovusqd", VR256X, VR512, VK8WM,
5242                                  i256mem>, EVEX_V512, EVEX_CD8<32, CD8VH>;
5243 defm VPMOVDW    : avx512_trunc_sat<0x33, "vpmovdw",   VR256X, VR512, VK16WM,
5244                                  i256mem>, EVEX_V512, EVEX_CD8<16, CD8VH>;
5245 defm VPMOVSDW   : avx512_trunc_sat<0x23, "vpmovsdw",  VR256X, VR512, VK16WM,
5246                                  i256mem>, EVEX_V512, EVEX_CD8<16, CD8VH>;
5247 defm VPMOVUSDW  : avx512_trunc_sat<0x13, "vpmovusdw", VR256X, VR512, VK16WM,
5248                                  i256mem>, EVEX_V512, EVEX_CD8<16, CD8VH>;
5249 defm VPMOVDB    : avx512_trunc_sat<0x31, "vpmovdb",   VR128X, VR512, VK16WM,
5250                                  i128mem>, EVEX_V512, EVEX_CD8<8, CD8VQ>;
5251 defm VPMOVSDB   : avx512_trunc_sat<0x21, "vpmovsdb",  VR128X, VR512, VK16WM,
5252                                  i128mem>, EVEX_V512, EVEX_CD8<8, CD8VQ>;
5253 defm VPMOVUSDB  : avx512_trunc_sat<0x11, "vpmovusdb", VR128X, VR512, VK16WM,
5254                                  i128mem>, EVEX_V512, EVEX_CD8<8, CD8VQ>;
5255
5256 def : Pat<(v16i8  (X86vtrunc (v8i64  VR512:$src))), (VPMOVQBrr  VR512:$src)>;
5257 def : Pat<(v8i16  (X86vtrunc (v8i64  VR512:$src))), (VPMOVQWrr  VR512:$src)>;
5258 def : Pat<(v16i16 (X86vtrunc (v16i32 VR512:$src))), (VPMOVDWrr  VR512:$src)>;
5259 def : Pat<(v16i8  (X86vtrunc (v16i32 VR512:$src))), (VPMOVDBrr  VR512:$src)>;
5260 def : Pat<(v8i32  (X86vtrunc (v8i64  VR512:$src))), (VPMOVQDrr  VR512:$src)>;
5261
5262 def : Pat<(v16i8  (X86vtruncm VK16WM:$mask, (v16i32 VR512:$src))),
5263                   (VPMOVDBrrkz VK16WM:$mask, VR512:$src)>;
5264 def : Pat<(v16i16 (X86vtruncm VK16WM:$mask, (v16i32 VR512:$src))),
5265                   (VPMOVDWrrkz VK16WM:$mask, VR512:$src)>;
5266 def : Pat<(v8i16  (X86vtruncm VK8WM:$mask,  (v8i64 VR512:$src))),
5267                   (VPMOVQWrrkz  VK8WM:$mask, VR512:$src)>;
5268 def : Pat<(v8i32  (X86vtruncm VK8WM:$mask,  (v8i64 VR512:$src))),
5269                   (VPMOVQDrrkz  VK8WM:$mask, VR512:$src)>;
5270
5271
5272 multiclass avx512_extend_common<bits<8> opc, string OpcodeStr,
5273                   X86VectorVTInfo DestInfo, X86VectorVTInfo SrcInfo,
5274                   X86MemOperand x86memop, PatFrag LdFrag, SDNode OpNode>{
5275
5276   defm rr   : AVX512_maskable<opc, MRMSrcReg, DestInfo, (outs DestInfo.RC:$dst),
5277                     (ins SrcInfo.RC:$src), OpcodeStr ,"$src", "$src",
5278                     (DestInfo.VT (OpNode (SrcInfo.VT SrcInfo.RC:$src)))>,
5279                   EVEX;
5280
5281   let mayLoad = 1 in {
5282     defm rm : AVX512_maskable<opc, MRMSrcMem, DestInfo, (outs DestInfo.RC:$dst),
5283                     (ins x86memop:$src), OpcodeStr ,"$src", "$src",
5284                     (DestInfo.VT (LdFrag addr:$src))>,
5285                   EVEX;
5286   }
5287 }
5288
5289 multiclass avx512_extend_BW<bits<8> opc, string OpcodeStr, SDNode OpNode,
5290           string ExtTy,PatFrag LdFrag = !cast<PatFrag>(ExtTy#"extloadvi8")> {
5291   let Predicates = [HasVLX, HasBWI] in {
5292     defm Z128:  avx512_extend_common<opc, OpcodeStr, v8i16x_info,
5293                     v16i8x_info, i64mem, LdFrag, OpNode>,
5294                      EVEX_CD8<8, CD8VH>, T8PD, EVEX_V128;
5295
5296     defm Z256:  avx512_extend_common<opc, OpcodeStr, v16i16x_info,
5297                     v16i8x_info, i128mem, LdFrag, OpNode>,
5298                      EVEX_CD8<8, CD8VH>, T8PD, EVEX_V256;
5299   }
5300   let Predicates = [HasBWI] in {
5301     defm Z   :  avx512_extend_common<opc, OpcodeStr, v32i16_info,
5302                     v32i8x_info, i256mem, LdFrag, OpNode>,
5303                      EVEX_CD8<8, CD8VH>, T8PD, EVEX_V512;
5304   }
5305 }
5306
5307 multiclass avx512_extend_BD<bits<8> opc, string OpcodeStr, SDNode OpNode,
5308           string ExtTy,PatFrag LdFrag = !cast<PatFrag>(ExtTy#"extloadvi8")> {
5309   let Predicates = [HasVLX, HasAVX512] in {
5310     defm Z128:  avx512_extend_common<opc, OpcodeStr, v4i32x_info,
5311                    v16i8x_info, i32mem, LdFrag, OpNode>,
5312                          EVEX_CD8<8, CD8VQ>, T8PD, EVEX_V128;
5313
5314     defm Z256:  avx512_extend_common<opc, OpcodeStr, v8i32x_info,
5315                    v16i8x_info, i64mem, LdFrag, OpNode>,
5316                          EVEX_CD8<8, CD8VQ>, T8PD, EVEX_V256;
5317   }
5318   let Predicates = [HasAVX512] in {
5319     defm Z   :  avx512_extend_common<opc, OpcodeStr, v16i32_info,
5320                    v16i8x_info, i128mem, LdFrag, OpNode>,
5321                          EVEX_CD8<8, CD8VQ>, T8PD, EVEX_V512;
5322   }
5323 }
5324
5325 multiclass avx512_extend_BQ<bits<8> opc, string OpcodeStr, SDNode OpNode,
5326           string ExtTy,PatFrag LdFrag = !cast<PatFrag>(ExtTy#"extloadvi8")> {
5327   let Predicates = [HasVLX, HasAVX512] in {
5328     defm Z128:  avx512_extend_common<opc, OpcodeStr, v2i64x_info,
5329                    v16i8x_info, i16mem, LdFrag, OpNode>,
5330                      EVEX_CD8<8, CD8VO>, T8PD, EVEX_V128;
5331
5332     defm Z256:  avx512_extend_common<opc, OpcodeStr, v4i64x_info,
5333                    v16i8x_info, i32mem, LdFrag, OpNode>,
5334                      EVEX_CD8<8, CD8VO>, T8PD, EVEX_V256;
5335   }
5336   let Predicates = [HasAVX512] in {
5337     defm Z   :  avx512_extend_common<opc, OpcodeStr, v8i64_info,
5338                    v16i8x_info, i64mem, LdFrag, OpNode>,
5339                      EVEX_CD8<8, CD8VO>, T8PD, EVEX_V512;
5340   }
5341 }
5342
5343 multiclass avx512_extend_WD<bits<8> opc, string OpcodeStr, SDNode OpNode,
5344          string ExtTy,PatFrag LdFrag = !cast<PatFrag>(ExtTy#"extloadvi16")> {
5345   let Predicates = [HasVLX, HasAVX512] in {
5346     defm Z128:  avx512_extend_common<opc, OpcodeStr, v4i32x_info,
5347                    v8i16x_info, i64mem, LdFrag, OpNode>,
5348                      EVEX_CD8<16, CD8VH>, T8PD, EVEX_V128;
5349
5350     defm Z256:  avx512_extend_common<opc, OpcodeStr, v8i32x_info,
5351                    v8i16x_info, i128mem, LdFrag, OpNode>,
5352                      EVEX_CD8<16, CD8VH>, T8PD, EVEX_V256;
5353   }
5354   let Predicates = [HasAVX512] in {
5355     defm Z   :  avx512_extend_common<opc, OpcodeStr, v16i32_info,
5356                    v16i16x_info, i256mem, LdFrag, OpNode>,
5357                      EVEX_CD8<16, CD8VH>, T8PD, EVEX_V512;
5358   }
5359 }
5360
5361 multiclass avx512_extend_WQ<bits<8> opc, string OpcodeStr, SDNode OpNode,
5362          string ExtTy,PatFrag LdFrag = !cast<PatFrag>(ExtTy#"extloadvi16")> {
5363   let Predicates = [HasVLX, HasAVX512] in {
5364     defm Z128:  avx512_extend_common<opc, OpcodeStr, v2i64x_info,
5365                    v8i16x_info, i32mem, LdFrag, OpNode>,
5366                      EVEX_CD8<16, CD8VQ>, T8PD, EVEX_V128;
5367
5368     defm Z256:  avx512_extend_common<opc, OpcodeStr, v4i64x_info,
5369                    v8i16x_info, i64mem, LdFrag, OpNode>,
5370                      EVEX_CD8<16, CD8VQ>, T8PD, EVEX_V256;
5371   }
5372   let Predicates = [HasAVX512] in {
5373     defm Z   :  avx512_extend_common<opc, OpcodeStr, v8i64_info,
5374                    v8i16x_info, i128mem, LdFrag, OpNode>,
5375                      EVEX_CD8<16, CD8VQ>, T8PD, EVEX_V512;
5376   }
5377 }
5378
5379 multiclass avx512_extend_DQ<bits<8> opc, string OpcodeStr, SDNode OpNode,
5380          string ExtTy,PatFrag LdFrag = !cast<PatFrag>(ExtTy#"extloadvi32")> {
5381
5382   let Predicates = [HasVLX, HasAVX512] in {
5383     defm Z128:  avx512_extend_common<opc, OpcodeStr, v2i64x_info,
5384                    v4i32x_info, i64mem, LdFrag, OpNode>,
5385                      EVEX_CD8<32, CD8VH>, T8PD, EVEX_V128;
5386
5387     defm Z256:  avx512_extend_common<opc, OpcodeStr, v4i64x_info,
5388                    v4i32x_info, i128mem, LdFrag, OpNode>,
5389                      EVEX_CD8<32, CD8VH>, T8PD, EVEX_V256;
5390   }
5391   let Predicates = [HasAVX512] in {
5392     defm Z   :  avx512_extend_common<opc, OpcodeStr, v8i64_info,
5393                    v8i32x_info, i256mem, LdFrag, OpNode>,
5394                      EVEX_CD8<32, CD8VH>, T8PD, EVEX_V512;
5395   }
5396 }
5397
5398 defm VPMOVZXBW : avx512_extend_BW<0x30, "vpmovzxbw", X86vzext, "z">;
5399 defm VPMOVZXBD : avx512_extend_BD<0x31, "vpmovzxbd", X86vzext, "z">;
5400 defm VPMOVZXBQ : avx512_extend_BQ<0x32, "vpmovzxbq", X86vzext, "z">;
5401 defm VPMOVZXWD : avx512_extend_WD<0x33, "vpmovzxwd", X86vzext, "z">;
5402 defm VPMOVZXWQ : avx512_extend_WQ<0x34, "vpmovzxwq", X86vzext, "z">;
5403 defm VPMOVZXDQ : avx512_extend_DQ<0x35, "vpmovzxdq", X86vzext, "z">;
5404
5405
5406 defm VPMOVSXBW: avx512_extend_BW<0x20, "vpmovsxbw", X86vsext, "s">;
5407 defm VPMOVSXBD: avx512_extend_BD<0x21, "vpmovsxbd", X86vsext, "s">;
5408 defm VPMOVSXBQ: avx512_extend_BQ<0x22, "vpmovsxbq", X86vsext, "s">;
5409 defm VPMOVSXWD: avx512_extend_WD<0x23, "vpmovsxwd", X86vsext, "s">;
5410 defm VPMOVSXWQ: avx512_extend_WQ<0x24, "vpmovsxwq", X86vsext, "s">;
5411 defm VPMOVSXDQ: avx512_extend_DQ<0x25, "vpmovsxdq", X86vsext, "s">;
5412
5413 //===----------------------------------------------------------------------===//
5414 // GATHER - SCATTER Operations
5415
5416 multiclass avx512_gather<bits<8> opc, string OpcodeStr, X86VectorVTInfo _,
5417                          X86MemOperand memop, PatFrag GatherNode> {
5418   let Constraints = "@earlyclobber $dst, $src1 = $dst, $mask = $mask_wb" in
5419   def rm  : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst, _.KRCWM:$mask_wb),
5420             (ins _.RC:$src1, _.KRCWM:$mask, memop:$src2),
5421             !strconcat(OpcodeStr,
5422             "\t{$src2, ${dst} {${mask}}|${dst} {${mask}}, $src2}"),
5423             [(set _.RC:$dst, _.KRCWM:$mask_wb,
5424               (GatherNode  (_.VT _.RC:$src1), _.KRCWM:$mask,
5425                      vectoraddr:$src2))]>, EVEX, EVEX_K,
5426              EVEX_CD8<_.EltSize, CD8VT1>;
5427 }
5428
5429 let ExeDomain = SSEPackedDouble in {
5430 defm VGATHERDPDZ : avx512_gather<0x92, "vgatherdpd", v8f64_info, vy64xmem,
5431                                  mgatherv8i32>, EVEX_V512, VEX_W;
5432 defm VGATHERQPDZ : avx512_gather<0x93, "vgatherqpd", v8f64_info, vz64mem,
5433                                  mgatherv8i64>, EVEX_V512, VEX_W;
5434 }
5435
5436 let ExeDomain = SSEPackedSingle in {
5437 defm VGATHERDPSZ : avx512_gather<0x92, "vgatherdps", v16f32_info, vz32mem,
5438                                  mgatherv16i32>, EVEX_V512;
5439 defm VGATHERQPSZ : avx512_gather<0x93, "vgatherqps", v8f32x_info, vz64mem,
5440                                  mgatherv8i64>,  EVEX_V512;
5441 }
5442
5443 defm VPGATHERDQZ : avx512_gather<0x90, "vpgatherdq", v8i64_info,  vy64xmem,
5444                                  mgatherv8i32>, EVEX_V512, VEX_W;
5445 defm VPGATHERDDZ : avx512_gather<0x90, "vpgatherdd", v16i32_info, vz32mem,
5446                                  mgatherv16i32>, EVEX_V512;
5447
5448 defm VPGATHERQQZ : avx512_gather<0x91, "vpgatherqq", v8i64_info,  vz64mem,
5449                                  mgatherv8i64>, EVEX_V512, VEX_W;
5450 defm VPGATHERQDZ : avx512_gather<0x91, "vpgatherqd", v8i32x_info,  vz64mem,
5451                                  mgatherv8i64>, EVEX_V512;
5452
5453 multiclass avx512_scatter<bits<8> opc, string OpcodeStr, X86VectorVTInfo _,
5454                           X86MemOperand memop, PatFrag ScatterNode> {
5455
5456 let mayStore = 1, Constraints = "$mask = $mask_wb" in
5457
5458   def mr  : AVX5128I<opc, MRMDestMem, (outs _.KRCWM:$mask_wb),
5459             (ins memop:$dst, _.KRCWM:$mask, _.RC:$src),
5460             !strconcat(OpcodeStr,
5461             "\t{$src, ${dst} {${mask}}|${dst} {${mask}}, $src}"),
5462             [(set _.KRCWM:$mask_wb, (ScatterNode (_.VT _.RC:$src),
5463                                      _.KRCWM:$mask,  vectoraddr:$dst))]>,
5464             EVEX, EVEX_K, EVEX_CD8<_.EltSize, CD8VT1>;
5465 }
5466
5467 let ExeDomain = SSEPackedDouble in {
5468 defm VSCATTERDPDZ : avx512_scatter<0xA2, "vscatterdpd", v8f64_info, vy64xmem,
5469                                    mscatterv8i32>, EVEX_V512, VEX_W;
5470 defm VSCATTERQPDZ : avx512_scatter<0xA3, "vscatterqpd", v8f64_info, vz64mem,
5471                                    mscatterv8i64>, EVEX_V512, VEX_W;
5472 }
5473
5474 let ExeDomain = SSEPackedSingle in {
5475 defm VSCATTERDPSZ : avx512_scatter<0xA2, "vscatterdps", v16f32_info, vz32mem,
5476                                    mscatterv16i32>, EVEX_V512;
5477 defm VSCATTERQPSZ : avx512_scatter<0xA3, "vscatterqps", v8f32x_info, vz64mem,
5478                                    mscatterv8i64>, EVEX_V512;
5479 }
5480
5481 defm VPSCATTERDQZ : avx512_scatter<0xA0, "vpscatterdq", v8i64_info, vy64xmem,
5482                                    mscatterv8i32>, EVEX_V512, VEX_W;
5483 defm VPSCATTERDDZ : avx512_scatter<0xA0, "vpscatterdd", v16i32_info, vz32mem,
5484                                    mscatterv16i32>, EVEX_V512;
5485
5486 defm VPSCATTERQQZ : avx512_scatter<0xA1, "vpscatterqq", v8i64_info, vz64mem,
5487                                    mscatterv8i64>, EVEX_V512, VEX_W;
5488 defm VPSCATTERQDZ : avx512_scatter<0xA1, "vpscatterqd", v8i32x_info, vz64mem,
5489                                    mscatterv8i64>, EVEX_V512;
5490
5491 // prefetch
5492 multiclass avx512_gather_scatter_prefetch<bits<8> opc, Format F, string OpcodeStr,
5493                        RegisterClass KRC, X86MemOperand memop> {
5494   let Predicates = [HasPFI], hasSideEffects = 1 in
5495   def m  : AVX5128I<opc, F, (outs), (ins KRC:$mask, memop:$src),
5496             !strconcat(OpcodeStr, "\t{$src {${mask}}|{${mask}}, $src}"),
5497             []>, EVEX, EVEX_K;
5498 }
5499
5500 defm VGATHERPF0DPS: avx512_gather_scatter_prefetch<0xC6, MRM1m, "vgatherpf0dps",
5501                      VK16WM, vz32mem>, EVEX_V512, EVEX_CD8<32, CD8VT1>;
5502
5503 defm VGATHERPF0QPS: avx512_gather_scatter_prefetch<0xC7, MRM1m, "vgatherpf0qps",
5504                      VK8WM, vz64mem>, EVEX_V512, EVEX_CD8<64, CD8VT1>;
5505
5506 defm VGATHERPF0DPD: avx512_gather_scatter_prefetch<0xC6, MRM1m, "vgatherpf0dpd",
5507                      VK8WM, vy32mem>, EVEX_V512, VEX_W, EVEX_CD8<32, CD8VT1>;
5508
5509 defm VGATHERPF0QPD: avx512_gather_scatter_prefetch<0xC7, MRM1m, "vgatherpf0qpd",
5510                      VK8WM, vz64mem>, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT1>;
5511
5512 defm VGATHERPF1DPS: avx512_gather_scatter_prefetch<0xC6, MRM2m, "vgatherpf1dps",
5513                      VK16WM, vz32mem>, EVEX_V512, EVEX_CD8<32, CD8VT1>;
5514
5515 defm VGATHERPF1QPS: avx512_gather_scatter_prefetch<0xC7, MRM2m, "vgatherpf1qps",
5516                      VK8WM, vz64mem>, EVEX_V512, EVEX_CD8<64, CD8VT1>;
5517
5518 defm VGATHERPF1DPD: avx512_gather_scatter_prefetch<0xC6, MRM2m, "vgatherpf1dpd",
5519                      VK8WM, vy32mem>, EVEX_V512, VEX_W, EVEX_CD8<32, CD8VT1>;
5520
5521 defm VGATHERPF1QPD: avx512_gather_scatter_prefetch<0xC7, MRM2m, "vgatherpf1qpd",
5522                      VK8WM, vz64mem>, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT1>;
5523
5524 defm VSCATTERPF0DPS: avx512_gather_scatter_prefetch<0xC6, MRM5m, "vscatterpf0dps",
5525                      VK16WM, vz32mem>, EVEX_V512, EVEX_CD8<32, CD8VT1>;
5526
5527 defm VSCATTERPF0QPS: avx512_gather_scatter_prefetch<0xC7, MRM5m, "vscatterpf0qps",
5528                      VK8WM, vz64mem>, EVEX_V512, EVEX_CD8<64, CD8VT1>;
5529
5530 defm VSCATTERPF0DPD: avx512_gather_scatter_prefetch<0xC6, MRM5m, "vscatterpf0dpd",
5531                      VK8WM, vy32mem>, EVEX_V512, VEX_W, EVEX_CD8<32, CD8VT1>;
5532
5533 defm VSCATTERPF0QPD: avx512_gather_scatter_prefetch<0xC7, MRM5m, "vscatterpf0qpd",
5534                      VK8WM, vz64mem>, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT1>;
5535
5536 defm VSCATTERPF1DPS: avx512_gather_scatter_prefetch<0xC6, MRM6m, "vscatterpf1dps",
5537                      VK16WM, vz32mem>, EVEX_V512, EVEX_CD8<32, CD8VT1>;
5538
5539 defm VSCATTERPF1QPS: avx512_gather_scatter_prefetch<0xC7, MRM6m, "vscatterpf1qps",
5540                      VK8WM, vz64mem>, EVEX_V512, EVEX_CD8<64, CD8VT1>;
5541
5542 defm VSCATTERPF1DPD: avx512_gather_scatter_prefetch<0xC6, MRM6m, "vscatterpf1dpd",
5543                      VK8WM, vy32mem>, EVEX_V512, VEX_W, EVEX_CD8<32, CD8VT1>;
5544
5545 defm VSCATTERPF1QPD: avx512_gather_scatter_prefetch<0xC7, MRM6m, "vscatterpf1qpd",
5546                      VK8WM, vz64mem>, EVEX_V512, VEX_W, EVEX_CD8<64, CD8VT1>;
5547 //===----------------------------------------------------------------------===//
5548 // VSHUFPS - VSHUFPD Operations
5549
5550 multiclass avx512_shufp<RegisterClass RC, X86MemOperand x86memop,
5551                       ValueType vt, string OpcodeStr, PatFrag mem_frag,
5552                       Domain d> {
5553   def rmi : AVX512PIi8<0xC6, MRMSrcMem, (outs RC:$dst),
5554                    (ins RC:$src1, x86memop:$src2, u8imm:$src3),
5555                    !strconcat(OpcodeStr,
5556                    "\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}"),
5557                    [(set RC:$dst, (vt (X86Shufp RC:$src1, (mem_frag addr:$src2),
5558                                        (i8 imm:$src3))))], d, IIC_SSE_SHUFP>,
5559                    EVEX_4V, Sched<[WriteShuffleLd, ReadAfterLd]>;
5560   def rri : AVX512PIi8<0xC6, MRMSrcReg, (outs RC:$dst),
5561                    (ins RC:$src1, RC:$src2, u8imm:$src3),
5562                    !strconcat(OpcodeStr,
5563                    "\t{$src3, $src2, $src1, $dst|$dst, $src1, $src2, $src3}"),
5564                    [(set RC:$dst, (vt (X86Shufp RC:$src1, RC:$src2,
5565                                        (i8 imm:$src3))))], d, IIC_SSE_SHUFP>,
5566                    EVEX_4V, Sched<[WriteShuffle]>;
5567 }
5568
5569 defm VSHUFPSZ  : avx512_shufp<VR512, f512mem, v16f32, "vshufps", loadv16f32,
5570                   SSEPackedSingle>, PS, EVEX_V512, EVEX_CD8<32, CD8VF>;
5571 defm VSHUFPDZ  : avx512_shufp<VR512, f512mem, v8f64, "vshufpd", loadv8f64,
5572                   SSEPackedDouble>, PD, VEX_W, EVEX_V512, EVEX_CD8<64, CD8VF>;
5573
5574 def : Pat<(v16i32 (X86Shufp VR512:$src1, VR512:$src2, (i8 imm:$imm))),
5575           (VSHUFPSZrri VR512:$src1, VR512:$src2, imm:$imm)>;
5576 def : Pat<(v16i32 (X86Shufp VR512:$src1,
5577                     (loadv16i32 addr:$src2), (i8 imm:$imm))),
5578           (VSHUFPSZrmi VR512:$src1, addr:$src2, imm:$imm)>;
5579
5580 def : Pat<(v8i64 (X86Shufp VR512:$src1, VR512:$src2, (i8 imm:$imm))),
5581           (VSHUFPDZrri VR512:$src1, VR512:$src2, imm:$imm)>;
5582 def : Pat<(v8i64 (X86Shufp VR512:$src1,
5583                             (loadv8i64 addr:$src2), (i8 imm:$imm))),
5584           (VSHUFPDZrmi VR512:$src1, addr:$src2, imm:$imm)>;
5585
5586 multiclass avx512_valign<X86VectorVTInfo _> {
5587   defm rri : AVX512_maskable<0x03, MRMSrcReg, _, (outs _.RC:$dst),
5588                      (ins _.RC:$src1, _.RC:$src2, u8imm:$src3),
5589                      "valign"##_.Suffix,
5590                      "$src3, $src2, $src1", "$src1, $src2, $src3",
5591                      (_.VT (X86VAlign _.RC:$src2, _.RC:$src1,
5592                                       (i8 imm:$src3)))>,
5593              AVX512AIi8Base, EVEX_4V;
5594
5595   // Also match valign of packed floats.
5596   def : Pat<(_.FloatVT (X86VAlign _.RC:$src1, _.RC:$src2, (i8 imm:$imm))),
5597             (!cast<Instruction>(NAME##rri) _.RC:$src2, _.RC:$src1, imm:$imm)>;
5598
5599   let mayLoad = 1 in
5600   def rmi : AVX512AIi8<0x03, MRMSrcMem, (outs _.RC:$dst),
5601                      (ins _.RC:$src1, _.MemOp:$src2, u8imm:$src3),
5602                      !strconcat("valign"##_.Suffix,
5603                      "\t{$src3, $src2, $src1, $dst|"
5604                          "$dst, $src1, $src2, $src3}"),
5605                      []>, EVEX_4V;
5606 }
5607 defm VALIGND : avx512_valign<v16i32_info>, EVEX_V512, EVEX_CD8<32, CD8VF>;
5608 defm VALIGNQ : avx512_valign<v8i64_info>, VEX_W, EVEX_V512, EVEX_CD8<64, CD8VF>;
5609
5610 // Helper fragments to match sext vXi1 to vXiY.
5611 def v16i1sextv16i32  : PatLeaf<(v16i32 (X86vsrai VR512:$src, (i8 31)))>;
5612 def v8i1sextv8i64  : PatLeaf<(v8i64 (X86vsrai VR512:$src, (i8 63)))>;
5613
5614 multiclass avx512_vpabs<bits<8> opc, string OpcodeStr, ValueType OpVT,
5615                         RegisterClass KRC, RegisterClass RC,
5616                         X86MemOperand x86memop, X86MemOperand x86scalar_mop,
5617                         string BrdcstStr> {
5618   def rr : AVX5128I<opc, MRMSrcReg, (outs RC:$dst), (ins RC:$src),
5619             !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
5620             []>, EVEX;
5621   def rrk : AVX5128I<opc, MRMSrcReg, (outs RC:$dst), (ins KRC:$mask, RC:$src),
5622              !strconcat(OpcodeStr, "\t{$src, $dst {${mask}}|$dst {${mask}}, $src}"),
5623              []>, EVEX, EVEX_K;
5624   def rrkz : AVX5128I<opc, MRMSrcReg, (outs RC:$dst), (ins KRC:$mask, RC:$src),
5625               !strconcat(OpcodeStr,
5626                          "\t{$src, $dst {${mask}} {z}|$dst {${mask}} {z}, $src}"),
5627               []>, EVEX, EVEX_KZ;
5628   let mayLoad = 1 in {
5629     def rm : AVX5128I<opc, MRMSrcMem, (outs VR512:$dst),
5630               (ins x86memop:$src),
5631               !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
5632               []>, EVEX;
5633     def rmk : AVX5128I<opc, MRMSrcMem, (outs VR512:$dst),
5634                (ins KRC:$mask, x86memop:$src),
5635                !strconcat(OpcodeStr,
5636                           "\t{$src, $dst {${mask}}|$dst {${mask}}, $src}"),
5637                []>, EVEX, EVEX_K;
5638     def rmkz : AVX5128I<opc, MRMSrcMem, (outs VR512:$dst),
5639                 (ins KRC:$mask, x86memop:$src),
5640                 !strconcat(OpcodeStr,
5641                            "\t{$src, $dst {${mask}} {z}|$dst {${mask}} {z}, $src}"),
5642                 []>, EVEX, EVEX_KZ;
5643     def rmb : AVX5128I<opc, MRMSrcMem, (outs VR512:$dst),
5644                (ins x86scalar_mop:$src),
5645                !strconcat(OpcodeStr, "\t{${src}", BrdcstStr,
5646                           ", $dst|$dst, ${src}", BrdcstStr, "}"),
5647                []>, EVEX, EVEX_B;
5648     def rmbk : AVX5128I<opc, MRMSrcMem, (outs VR512:$dst),
5649                 (ins KRC:$mask, x86scalar_mop:$src),
5650                 !strconcat(OpcodeStr, "\t{${src}", BrdcstStr,
5651                            ", $dst {${mask}}|$dst {${mask}}, ${src}", BrdcstStr, "}"),
5652                 []>, EVEX, EVEX_B, EVEX_K;
5653     def rmbkz : AVX5128I<opc, MRMSrcMem, (outs VR512:$dst),
5654                  (ins KRC:$mask, x86scalar_mop:$src),
5655                  !strconcat(OpcodeStr, "\t{${src}", BrdcstStr,
5656                             ", $dst {${mask}} {z}|$dst {${mask}} {z}, ${src}",
5657                             BrdcstStr, "}"),
5658                  []>, EVEX, EVEX_B, EVEX_KZ;
5659   }
5660 }
5661
5662 defm VPABSDZ : avx512_vpabs<0x1E, "vpabsd", v16i32, VK16WM, VR512,
5663                            i512mem, i32mem, "{1to16}">, EVEX_V512,
5664                            EVEX_CD8<32, CD8VF>;
5665 defm VPABSQZ : avx512_vpabs<0x1F, "vpabsq", v8i64, VK8WM, VR512,
5666                            i512mem, i64mem, "{1to8}">, EVEX_V512, VEX_W,
5667                            EVEX_CD8<64, CD8VF>;
5668
5669 def : Pat<(xor
5670           (bc_v16i32 (v16i1sextv16i32)),
5671           (bc_v16i32 (add (v16i32 VR512:$src), (v16i1sextv16i32)))),
5672           (VPABSDZrr VR512:$src)>;
5673 def : Pat<(xor
5674           (bc_v8i64 (v8i1sextv8i64)),
5675           (bc_v8i64 (add (v8i64 VR512:$src), (v8i1sextv8i64)))),
5676           (VPABSQZrr VR512:$src)>;
5677
5678 def : Pat<(v16i32 (int_x86_avx512_mask_pabs_d_512 (v16i32 VR512:$src),
5679                    (v16i32 immAllZerosV), (i16 -1))),
5680           (VPABSDZrr VR512:$src)>;
5681 def : Pat<(v8i64 (int_x86_avx512_mask_pabs_q_512 (v8i64 VR512:$src),
5682                    (bc_v8i64 (v16i32 immAllZerosV)), (i8 -1))),
5683           (VPABSQZrr VR512:$src)>;
5684
5685 multiclass avx512_conflict<bits<8> opc, string OpcodeStr,
5686                         RegisterClass RC, RegisterClass KRC,
5687                         X86MemOperand x86memop,
5688                         X86MemOperand x86scalar_mop, string BrdcstStr> {
5689   let hasSideEffects = 0 in {
5690   def rr : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
5691        (ins RC:$src),
5692        !strconcat(OpcodeStr, "\t{$src, ${dst} |${dst}, $src}"),
5693        []>, EVEX;
5694   let mayLoad = 1 in
5695   def rm : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
5696        (ins x86memop:$src),
5697        !strconcat(OpcodeStr, "\t{$src, ${dst}|${dst}, $src}"),
5698        []>, EVEX;
5699   let mayLoad = 1 in
5700   def rmb : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
5701        (ins x86scalar_mop:$src),
5702        !strconcat(OpcodeStr, "\t{${src}", BrdcstStr,
5703                   ", ${dst}|${dst}, ${src}", BrdcstStr, "}"),
5704        []>, EVEX, EVEX_B;
5705   def rrkz : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
5706        (ins KRC:$mask, RC:$src),
5707        !strconcat(OpcodeStr,
5708                   "\t{$src, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src}"),
5709        []>, EVEX, EVEX_KZ;
5710   let mayLoad = 1 in
5711   def rmkz : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
5712        (ins KRC:$mask, x86memop:$src),
5713        !strconcat(OpcodeStr,
5714                   "\t{$src, ${dst} {${mask}} {z}|${dst} {${mask}} {z}, $src}"),
5715        []>, EVEX, EVEX_KZ;
5716   let mayLoad = 1 in
5717   def rmbkz : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
5718        (ins KRC:$mask, x86scalar_mop:$src),
5719        !strconcat(OpcodeStr, "\t{${src}", BrdcstStr,
5720                   ", ${dst} {${mask}} {z}|${dst} {${mask}} {z}, ${src}",
5721                   BrdcstStr, "}"),
5722        []>, EVEX, EVEX_KZ, EVEX_B;
5723
5724   let Constraints = "$src1 = $dst" in {
5725   def rrk : AVX5128I<opc, MRMSrcReg, (outs RC:$dst),
5726        (ins RC:$src1, KRC:$mask, RC:$src2),
5727        !strconcat(OpcodeStr,
5728                   "\t{$src2, ${dst} {${mask}}|${dst} {${mask}}, $src2}"),
5729        []>, EVEX, EVEX_K;
5730   let mayLoad = 1 in
5731   def rmk : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
5732        (ins RC:$src1, KRC:$mask, x86memop:$src2),
5733        !strconcat(OpcodeStr,
5734                   "\t{$src2, ${dst} {${mask}}|${dst} {${mask}}, $src2}"),
5735        []>, EVEX, EVEX_K;
5736   let mayLoad = 1 in
5737   def rmbk : AVX5128I<opc, MRMSrcMem, (outs RC:$dst),
5738        (ins RC:$src1, KRC:$mask, x86scalar_mop:$src2),
5739        !strconcat(OpcodeStr, "\t{${src2}", BrdcstStr,
5740                   ", ${dst} {${mask}}|${dst} {${mask}}, ${src2}", BrdcstStr, "}"),
5741        []>, EVEX, EVEX_K, EVEX_B;
5742   }
5743   }
5744 }
5745
5746 let Predicates = [HasCDI] in {
5747 defm VPCONFLICTD : avx512_conflict<0xC4, "vpconflictd", VR512, VK16WM,
5748                     i512mem, i32mem, "{1to16}">,
5749                     EVEX_V512, EVEX_CD8<32, CD8VF>;
5750
5751
5752 defm VPCONFLICTQ : avx512_conflict<0xC4, "vpconflictq", VR512, VK8WM,
5753                     i512mem, i64mem, "{1to8}">,
5754                     EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
5755
5756 }
5757
5758 def : Pat<(int_x86_avx512_mask_conflict_d_512 VR512:$src2, VR512:$src1,
5759                                               GR16:$mask),
5760           (VPCONFLICTDrrk VR512:$src1,
5761            (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)), VR512:$src2)>;
5762
5763 def : Pat<(int_x86_avx512_mask_conflict_q_512 VR512:$src2, VR512:$src1,
5764                                               GR8:$mask),
5765           (VPCONFLICTQrrk VR512:$src1,
5766            (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)), VR512:$src2)>;
5767
5768 let Predicates = [HasCDI] in {
5769 defm VPLZCNTD : avx512_conflict<0x44, "vplzcntd", VR512, VK16WM,
5770                     i512mem, i32mem, "{1to16}">,
5771                     EVEX_V512, EVEX_CD8<32, CD8VF>;
5772
5773
5774 defm VPLZCNTQ : avx512_conflict<0x44, "vplzcntq", VR512, VK8WM,
5775                     i512mem, i64mem, "{1to8}">,
5776                     EVEX_V512, VEX_W, EVEX_CD8<64, CD8VF>;
5777
5778 }
5779
5780 def : Pat<(int_x86_avx512_mask_lzcnt_d_512 VR512:$src2, VR512:$src1,
5781                                               GR16:$mask),
5782           (VPLZCNTDrrk VR512:$src1,
5783            (v16i1 (COPY_TO_REGCLASS GR16:$mask, VK16WM)), VR512:$src2)>;
5784
5785 def : Pat<(int_x86_avx512_mask_lzcnt_q_512 VR512:$src2, VR512:$src1,
5786                                               GR8:$mask),
5787           (VPLZCNTQrrk VR512:$src1,
5788            (v8i1 (COPY_TO_REGCLASS GR8:$mask, VK8WM)), VR512:$src2)>;
5789
5790 def : Pat<(v16i32 (ctlz (loadv16i32 addr:$src))),
5791           (VPLZCNTDrm addr:$src)>;
5792 def : Pat<(v16i32 (ctlz (v16i32 VR512:$src))),
5793           (VPLZCNTDrr VR512:$src)>;
5794 def : Pat<(v8i64 (ctlz (loadv8i64 addr:$src))),
5795           (VPLZCNTQrm addr:$src)>;
5796 def : Pat<(v8i64 (ctlz (v8i64 VR512:$src))),
5797           (VPLZCNTQrr VR512:$src)>;
5798
5799 def : Pat<(store (i1 -1), addr:$dst), (MOV8mi addr:$dst, (i8 1))>;
5800 def : Pat<(store (i1  1), addr:$dst), (MOV8mi addr:$dst, (i8 1))>;
5801 def : Pat<(store (i1  0), addr:$dst), (MOV8mi addr:$dst, (i8 0))>;
5802
5803 def : Pat<(store VK1:$src, addr:$dst),
5804           (MOV8mr addr:$dst,
5805            (EXTRACT_SUBREG (KMOVWrk (COPY_TO_REGCLASS VK1:$src, VK16)),
5806             sub_8bit))>, Requires<[HasAVX512, NoDQI]>;
5807
5808 def : Pat<(store VK8:$src, addr:$dst),
5809           (MOV8mr addr:$dst,
5810            (EXTRACT_SUBREG (KMOVWrk (COPY_TO_REGCLASS VK8:$src, VK16)),
5811             sub_8bit))>, Requires<[HasAVX512, NoDQI]>;
5812
5813 def truncstorei1 : PatFrag<(ops node:$val, node:$ptr),
5814                            (truncstore node:$val, node:$ptr), [{
5815   return cast<StoreSDNode>(N)->getMemoryVT() == MVT::i1;
5816 }]>;
5817
5818 def : Pat<(truncstorei1 GR8:$src, addr:$dst),
5819           (MOV8mr addr:$dst, GR8:$src)>;
5820
5821 multiclass cvt_by_vec_width<bits<8> opc, X86VectorVTInfo Vec, string OpcodeStr > {
5822 def rr : AVX512XS8I<opc, MRMSrcReg, (outs Vec.RC:$dst), (ins Vec.KRC:$src),
5823                   !strconcat(OpcodeStr##Vec.Suffix, "\t{$src, $dst|$dst, $src}"),
5824                   [(set Vec.RC:$dst, (Vec.VT (X86vsext Vec.KRC:$src)))]>, EVEX;
5825 }
5826
5827 multiclass cvt_mask_by_elt_width<bits<8> opc, AVX512VLVectorVTInfo VTInfo,
5828                                  string OpcodeStr, Predicate prd> {
5829 let Predicates = [prd] in
5830   defm Z : cvt_by_vec_width<opc, VTInfo.info512, OpcodeStr>, EVEX_V512;
5831
5832   let Predicates = [prd, HasVLX] in {
5833     defm Z256 : cvt_by_vec_width<opc, VTInfo.info256, OpcodeStr>, EVEX_V256;
5834     defm Z128 : cvt_by_vec_width<opc, VTInfo.info128, OpcodeStr>, EVEX_V128;
5835   }
5836 }
5837
5838 multiclass avx512_convert_mask_to_vector<string OpcodeStr> {
5839   defm NAME##B : cvt_mask_by_elt_width<0x28, avx512vl_i8_info,  OpcodeStr,
5840                                        HasBWI>;
5841   defm NAME##W : cvt_mask_by_elt_width<0x28, avx512vl_i16_info, OpcodeStr,
5842                                        HasBWI>, VEX_W;
5843   defm NAME##D : cvt_mask_by_elt_width<0x38, avx512vl_i32_info, OpcodeStr,
5844                                        HasDQI>;
5845   defm NAME##Q : cvt_mask_by_elt_width<0x38, avx512vl_i64_info, OpcodeStr,
5846                                        HasDQI>, VEX_W;
5847 }
5848
5849 defm VPMOVM2 : avx512_convert_mask_to_vector<"vpmovm2">;
5850
5851 multiclass convert_vector_to_mask_common<bits<8> opc, X86VectorVTInfo _, string OpcodeStr > {
5852 def rr : AVX512XS8I<opc, MRMSrcReg, (outs _.KRC:$dst), (ins _.RC:$src),
5853                   !strconcat(OpcodeStr, "\t{$src, $dst|$dst, $src}"),
5854                   [(set _.KRC:$dst, (trunc (_.VT _.RC:$src)))]>, EVEX;
5855 }
5856
5857 multiclass avx512_convert_vector_to_mask<bits<8> opc, string OpcodeStr,
5858                         AVX512VLVectorVTInfo VTInfo, Predicate prd> {
5859 let Predicates = [prd] in
5860   defm Z : convert_vector_to_mask_common <opc, VTInfo.info512, OpcodeStr>,
5861    EVEX_V512;
5862
5863   let Predicates = [prd, HasVLX] in {
5864     defm Z256 : convert_vector_to_mask_common<opc, VTInfo.info256, OpcodeStr>,
5865      EVEX_V256;
5866     defm Z128 : convert_vector_to_mask_common<opc, VTInfo.info128, OpcodeStr>,
5867      EVEX_V128;
5868   }
5869 }
5870
5871 defm VPMOVB2M : avx512_convert_vector_to_mask<0x29, "vpmovb2m",
5872                                               avx512vl_i8_info, HasBWI>;
5873 defm VPMOVW2M : avx512_convert_vector_to_mask<0x29, "vpmovw2m",
5874                                               avx512vl_i16_info, HasBWI>, VEX_W;
5875 defm VPMOVD2M : avx512_convert_vector_to_mask<0x39, "vpmovd2m",
5876                                               avx512vl_i32_info, HasDQI>;
5877 defm VPMOVQ2M : avx512_convert_vector_to_mask<0x39, "vpmovq2m",
5878                                               avx512vl_i64_info, HasDQI>, VEX_W;
5879
5880 //===----------------------------------------------------------------------===//
5881 // AVX-512 - COMPRESS and EXPAND
5882 //
5883 multiclass compress_by_vec_width<bits<8> opc, X86VectorVTInfo _,
5884                                  string OpcodeStr> {
5885   def rrkz : AVX5128I<opc, MRMDestReg, (outs _.RC:$dst),
5886               (ins _.KRCWM:$mask, _.RC:$src),
5887               OpcodeStr # "\t{$src, $dst {${mask}} {z}|$dst {${mask}} {z}, $src}",
5888               [(set _.RC:$dst, (_.VT (X86compress _.KRCWM:$mask, _.RC:$src,
5889                                       _.ImmAllZerosV)))]>, EVEX_KZ;
5890
5891   let Constraints = "$src0 = $dst" in
5892   def rrk : AVX5128I<opc, MRMDestReg, (outs _.RC:$dst),
5893                     (ins _.RC:$src0, _.KRCWM:$mask, _.RC:$src),
5894                     OpcodeStr # "\t{$src, $dst {${mask}} |$dst {${mask}}, $src}",
5895                     [(set _.RC:$dst, (_.VT (X86compress _.KRCWM:$mask, _.RC:$src,
5896                                             _.RC:$src0)))]>, EVEX_K;
5897
5898   let mayStore = 1 in {
5899   def mrk : AVX5128I<opc, MRMDestMem, (outs),
5900               (ins _.MemOp:$dst, _.KRCWM:$mask, _.RC:$src),
5901               OpcodeStr # "\t{$src, $dst {${mask}} |$dst {${mask}}, $src}",
5902               [(store (_.VT (X86compress _.KRCWM:$mask, _.RC:$src, undef)),
5903                 addr:$dst)]>,
5904               EVEX_K, EVEX_CD8<_.EltSize, CD8VT1>;
5905   }
5906 }
5907
5908 multiclass compress_by_elt_width<bits<8> opc, string OpcodeStr,
5909                                  AVX512VLVectorVTInfo VTInfo> {
5910   defm Z : compress_by_vec_width<opc, VTInfo.info512, OpcodeStr>, EVEX_V512;
5911
5912   let Predicates = [HasVLX] in {
5913     defm Z256 : compress_by_vec_width<opc, VTInfo.info256, OpcodeStr>, EVEX_V256;
5914     defm Z128 : compress_by_vec_width<opc, VTInfo.info128, OpcodeStr>, EVEX_V128;
5915   }
5916 }
5917
5918 defm VPCOMPRESSD : compress_by_elt_width <0x8B, "vpcompressd", avx512vl_i32_info>,
5919                                          EVEX;
5920 defm VPCOMPRESSQ : compress_by_elt_width <0x8B, "vpcompressq", avx512vl_i64_info>,
5921                                          EVEX, VEX_W;
5922 defm VCOMPRESSPS : compress_by_elt_width <0x8A, "vcompressps", avx512vl_f32_info>,
5923                                          EVEX;
5924 defm VCOMPRESSPD : compress_by_elt_width <0x8A, "vcompresspd", avx512vl_f64_info>,
5925                                          EVEX, VEX_W;
5926
5927 // expand
5928 multiclass expand_by_vec_width<bits<8> opc, X86VectorVTInfo _,
5929                                  string OpcodeStr> {
5930   def rrkz : AVX5128I<opc, MRMSrcReg, (outs _.RC:$dst),
5931               (ins _.KRCWM:$mask, _.RC:$src),
5932               OpcodeStr # "\t{$src, $dst {${mask}} {z}|$dst {${mask}} {z}, $src}",
5933               [(set _.RC:$dst, (_.VT (X86expand _.KRCWM:$mask, (_.VT _.RC:$src),
5934                                       _.ImmAllZerosV)))]>, EVEX_KZ;
5935
5936   let Constraints = "$src0 = $dst" in
5937   def rrk : AVX5128I<opc, MRMSrcReg, (outs _.RC:$dst),
5938                     (ins _.RC:$src0, _.KRCWM:$mask, _.RC:$src),
5939                     OpcodeStr # "\t{$src, $dst {${mask}} |$dst {${mask}}, $src}",
5940                     [(set _.RC:$dst, (_.VT (X86expand _.KRCWM:$mask,
5941                                       (_.VT _.RC:$src), _.RC:$src0)))]>, EVEX_K;
5942
5943   let mayLoad = 1, Constraints = "$src0 = $dst" in
5944   def rmk : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
5945               (ins _.RC:$src0, _.KRCWM:$mask, _.MemOp:$src),
5946               OpcodeStr # "\t{$src, $dst {${mask}} |$dst {${mask}}, $src}",
5947               [(set _.RC:$dst, (_.VT (X86expand _.KRCWM:$mask,
5948                                       (_.VT (bitconvert
5949                                               (_.LdFrag addr:$src))),
5950                                       _.RC:$src0)))]>,
5951               EVEX_K, EVEX_CD8<_.EltSize, CD8VT1>;
5952   
5953   let mayLoad = 1 in
5954   def rmkz : AVX5128I<opc, MRMSrcMem, (outs _.RC:$dst),
5955               (ins _.KRCWM:$mask, _.MemOp:$src),
5956               OpcodeStr # "\t{$src, $dst {${mask}} {z}|$dst {${mask}} {z}, $src}",
5957               [(set _.RC:$dst, (_.VT (X86expand _.KRCWM:$mask,
5958                                       (_.VT (bitconvert (_.LdFrag addr:$src))),
5959                                      _.ImmAllZerosV)))]>,
5960               EVEX_KZ, EVEX_CD8<_.EltSize, CD8VT1>;
5961   
5962 }
5963
5964 multiclass expand_by_elt_width<bits<8> opc, string OpcodeStr,
5965                                  AVX512VLVectorVTInfo VTInfo> {
5966   defm Z : expand_by_vec_width<opc, VTInfo.info512, OpcodeStr>, EVEX_V512;
5967
5968   let Predicates = [HasVLX] in {
5969     defm Z256 : expand_by_vec_width<opc, VTInfo.info256, OpcodeStr>, EVEX_V256;
5970     defm Z128 : expand_by_vec_width<opc, VTInfo.info128, OpcodeStr>, EVEX_V128;
5971   }
5972 }
5973
5974 defm VPEXPANDD : expand_by_elt_width <0x89, "vpexpandd", avx512vl_i32_info>,
5975                                          EVEX;
5976 defm VPEXPANDQ : expand_by_elt_width <0x89, "vpexpandq", avx512vl_i64_info>,
5977                                          EVEX, VEX_W;
5978 defm VEXPANDPS : expand_by_elt_width <0x88, "vexpandps", avx512vl_f32_info>,
5979                                          EVEX;
5980 defm VEXPANDPD : expand_by_elt_width <0x88, "vexpandpd", avx512vl_f64_info>,
5981                                          EVEX, VEX_W;