4b7887b26afe7bc8cf5d059ef1cfdec1d486b9c9
[oota-llvm.git] / lib / CodeGen / SelectionDAG / SelectionDAG.cpp
1 //===-- SelectionDAG.cpp - Implement the SelectionDAG data structures -----===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This implements the SelectionDAG class.
11 //
12 //===----------------------------------------------------------------------===//
13
14 #include "llvm/CodeGen/SelectionDAG.h"
15 #include "SDNodeDbgValue.h"
16 #include "llvm/ADT/APSInt.h"
17 #include "llvm/ADT/SetVector.h"
18 #include "llvm/ADT/SmallPtrSet.h"
19 #include "llvm/ADT/SmallSet.h"
20 #include "llvm/ADT/SmallVector.h"
21 #include "llvm/ADT/StringExtras.h"
22 #include "llvm/Analysis/ValueTracking.h"
23 #include "llvm/CodeGen/MachineBasicBlock.h"
24 #include "llvm/CodeGen/MachineConstantPool.h"
25 #include "llvm/CodeGen/MachineFrameInfo.h"
26 #include "llvm/CodeGen/MachineModuleInfo.h"
27 #include "llvm/IR/CallingConv.h"
28 #include "llvm/IR/Constants.h"
29 #include "llvm/IR/DataLayout.h"
30 #include "llvm/IR/DebugInfo.h"
31 #include "llvm/IR/DerivedTypes.h"
32 #include "llvm/IR/Function.h"
33 #include "llvm/IR/GlobalAlias.h"
34 #include "llvm/IR/GlobalVariable.h"
35 #include "llvm/IR/Intrinsics.h"
36 #include "llvm/Support/CommandLine.h"
37 #include "llvm/Support/Debug.h"
38 #include "llvm/Support/ErrorHandling.h"
39 #include "llvm/Support/ManagedStatic.h"
40 #include "llvm/Support/MathExtras.h"
41 #include "llvm/Support/Mutex.h"
42 #include "llvm/Support/raw_ostream.h"
43 #include "llvm/Target/TargetInstrInfo.h"
44 #include "llvm/Target/TargetIntrinsicInfo.h"
45 #include "llvm/Target/TargetLowering.h"
46 #include "llvm/Target/TargetMachine.h"
47 #include "llvm/Target/TargetOptions.h"
48 #include "llvm/Target/TargetRegisterInfo.h"
49 #include "llvm/Target/TargetSelectionDAGInfo.h"
50 #include "llvm/Target/TargetSubtargetInfo.h"
51 #include <algorithm>
52 #include <cmath>
53 #include <utility>
54
55 using namespace llvm;
56
57 /// makeVTList - Return an instance of the SDVTList struct initialized with the
58 /// specified members.
59 static SDVTList makeVTList(const EVT *VTs, unsigned NumVTs) {
60   SDVTList Res = {VTs, NumVTs};
61   return Res;
62 }
63
64 // Default null implementations of the callbacks.
65 void SelectionDAG::DAGUpdateListener::NodeDeleted(SDNode*, SDNode*) {}
66 void SelectionDAG::DAGUpdateListener::NodeUpdated(SDNode*) {}
67
68 //===----------------------------------------------------------------------===//
69 //                              ConstantFPSDNode Class
70 //===----------------------------------------------------------------------===//
71
72 /// isExactlyValue - We don't rely on operator== working on double values, as
73 /// it returns true for things that are clearly not equal, like -0.0 and 0.0.
74 /// As such, this method can be used to do an exact bit-for-bit comparison of
75 /// two floating point values.
76 bool ConstantFPSDNode::isExactlyValue(const APFloat& V) const {
77   return getValueAPF().bitwiseIsEqual(V);
78 }
79
80 bool ConstantFPSDNode::isValueValidForType(EVT VT,
81                                            const APFloat& Val) {
82   assert(VT.isFloatingPoint() && "Can only convert between FP types");
83
84   // convert modifies in place, so make a copy.
85   APFloat Val2 = APFloat(Val);
86   bool losesInfo;
87   (void) Val2.convert(SelectionDAG::EVTToAPFloatSemantics(VT),
88                       APFloat::rmNearestTiesToEven,
89                       &losesInfo);
90   return !losesInfo;
91 }
92
93 //===----------------------------------------------------------------------===//
94 //                              ISD Namespace
95 //===----------------------------------------------------------------------===//
96
97 /// isBuildVectorAllOnes - Return true if the specified node is a
98 /// BUILD_VECTOR where all of the elements are ~0 or undef.
99 bool ISD::isBuildVectorAllOnes(const SDNode *N) {
100   // Look through a bit convert.
101   while (N->getOpcode() == ISD::BITCAST)
102     N = N->getOperand(0).getNode();
103
104   if (N->getOpcode() != ISD::BUILD_VECTOR) return false;
105
106   unsigned i = 0, e = N->getNumOperands();
107
108   // Skip over all of the undef values.
109   while (i != e && N->getOperand(i).getOpcode() == ISD::UNDEF)
110     ++i;
111
112   // Do not accept an all-undef vector.
113   if (i == e) return false;
114
115   // Do not accept build_vectors that aren't all constants or which have non-~0
116   // elements. We have to be a bit careful here, as the type of the constant
117   // may not be the same as the type of the vector elements due to type
118   // legalization (the elements are promoted to a legal type for the target and
119   // a vector of a type may be legal when the base element type is not).
120   // We only want to check enough bits to cover the vector elements, because
121   // we care if the resultant vector is all ones, not whether the individual
122   // constants are.
123   SDValue NotZero = N->getOperand(i);
124   unsigned EltSize = N->getValueType(0).getVectorElementType().getSizeInBits();
125   if (ConstantSDNode *CN = dyn_cast<ConstantSDNode>(NotZero)) {
126     if (CN->getAPIntValue().countTrailingOnes() < EltSize)
127       return false;
128   } else if (ConstantFPSDNode *CFPN = dyn_cast<ConstantFPSDNode>(NotZero)) {
129     if (CFPN->getValueAPF().bitcastToAPInt().countTrailingOnes() < EltSize)
130       return false;
131   } else
132     return false;
133
134   // Okay, we have at least one ~0 value, check to see if the rest match or are
135   // undefs. Even with the above element type twiddling, this should be OK, as
136   // the same type legalization should have applied to all the elements.
137   for (++i; i != e; ++i)
138     if (N->getOperand(i) != NotZero &&
139         N->getOperand(i).getOpcode() != ISD::UNDEF)
140       return false;
141   return true;
142 }
143
144
145 /// isBuildVectorAllZeros - Return true if the specified node is a
146 /// BUILD_VECTOR where all of the elements are 0 or undef.
147 bool ISD::isBuildVectorAllZeros(const SDNode *N) {
148   // Look through a bit convert.
149   while (N->getOpcode() == ISD::BITCAST)
150     N = N->getOperand(0).getNode();
151
152   if (N->getOpcode() != ISD::BUILD_VECTOR) return false;
153
154   bool IsAllUndef = true;
155   for (const SDValue &Op : N->op_values()) {
156     if (Op.getOpcode() == ISD::UNDEF)
157       continue;
158     IsAllUndef = false;
159     // Do not accept build_vectors that aren't all constants or which have non-0
160     // elements. We have to be a bit careful here, as the type of the constant
161     // may not be the same as the type of the vector elements due to type
162     // legalization (the elements are promoted to a legal type for the target
163     // and a vector of a type may be legal when the base element type is not).
164     // We only want to check enough bits to cover the vector elements, because
165     // we care if the resultant vector is all zeros, not whether the individual
166     // constants are.
167     unsigned EltSize = N->getValueType(0).getVectorElementType().getSizeInBits();
168     if (ConstantSDNode *CN = dyn_cast<ConstantSDNode>(Op)) {
169       if (CN->getAPIntValue().countTrailingZeros() < EltSize)
170         return false;
171     } else if (ConstantFPSDNode *CFPN = dyn_cast<ConstantFPSDNode>(Op)) {
172       if (CFPN->getValueAPF().bitcastToAPInt().countTrailingZeros() < EltSize)
173         return false;
174     } else
175       return false;
176   }
177
178   // Do not accept an all-undef vector.
179   if (IsAllUndef)
180     return false;
181   return true;
182 }
183
184 /// \brief Return true if the specified node is a BUILD_VECTOR node of
185 /// all ConstantSDNode or undef.
186 bool ISD::isBuildVectorOfConstantSDNodes(const SDNode *N) {
187   if (N->getOpcode() != ISD::BUILD_VECTOR)
188     return false;
189
190   for (const SDValue &Op : N->op_values()) {
191     if (Op.getOpcode() == ISD::UNDEF)
192       continue;
193     if (!isa<ConstantSDNode>(Op))
194       return false;
195   }
196   return true;
197 }
198
199 /// \brief Return true if the specified node is a BUILD_VECTOR node of
200 /// all ConstantFPSDNode or undef.
201 bool ISD::isBuildVectorOfConstantFPSDNodes(const SDNode *N) {
202   if (N->getOpcode() != ISD::BUILD_VECTOR)
203     return false;
204
205   for (const SDValue &Op : N->op_values()) {
206     if (Op.getOpcode() == ISD::UNDEF)
207       continue;
208     if (!isa<ConstantFPSDNode>(Op))
209       return false;
210   }
211   return true;
212 }
213
214 /// allOperandsUndef - Return true if the node has at least one operand
215 /// and all operands of the specified node are ISD::UNDEF.
216 bool ISD::allOperandsUndef(const SDNode *N) {
217   // Return false if the node has no operands.
218   // This is "logically inconsistent" with the definition of "all" but
219   // is probably the desired behavior.
220   if (N->getNumOperands() == 0)
221     return false;
222
223   for (const SDValue &Op : N->op_values())
224     if (Op.getOpcode() != ISD::UNDEF)
225       return false;
226
227   return true;
228 }
229
230 ISD::NodeType ISD::getExtForLoadExtType(bool IsFP, ISD::LoadExtType ExtType) {
231   switch (ExtType) {
232   case ISD::EXTLOAD:
233     return IsFP ? ISD::FP_EXTEND : ISD::ANY_EXTEND;
234   case ISD::SEXTLOAD:
235     return ISD::SIGN_EXTEND;
236   case ISD::ZEXTLOAD:
237     return ISD::ZERO_EXTEND;
238   default:
239     break;
240   }
241
242   llvm_unreachable("Invalid LoadExtType");
243 }
244
245 /// getSetCCSwappedOperands - Return the operation corresponding to (Y op X)
246 /// when given the operation for (X op Y).
247 ISD::CondCode ISD::getSetCCSwappedOperands(ISD::CondCode Operation) {
248   // To perform this operation, we just need to swap the L and G bits of the
249   // operation.
250   unsigned OldL = (Operation >> 2) & 1;
251   unsigned OldG = (Operation >> 1) & 1;
252   return ISD::CondCode((Operation & ~6) |  // Keep the N, U, E bits
253                        (OldL << 1) |       // New G bit
254                        (OldG << 2));       // New L bit.
255 }
256
257 /// getSetCCInverse - Return the operation corresponding to !(X op Y), where
258 /// 'op' is a valid SetCC operation.
259 ISD::CondCode ISD::getSetCCInverse(ISD::CondCode Op, bool isInteger) {
260   unsigned Operation = Op;
261   if (isInteger)
262     Operation ^= 7;   // Flip L, G, E bits, but not U.
263   else
264     Operation ^= 15;  // Flip all of the condition bits.
265
266   if (Operation > ISD::SETTRUE2)
267     Operation &= ~8;  // Don't let N and U bits get set.
268
269   return ISD::CondCode(Operation);
270 }
271
272
273 /// isSignedOp - For an integer comparison, return 1 if the comparison is a
274 /// signed operation and 2 if the result is an unsigned comparison.  Return zero
275 /// if the operation does not depend on the sign of the input (setne and seteq).
276 static int isSignedOp(ISD::CondCode Opcode) {
277   switch (Opcode) {
278   default: llvm_unreachable("Illegal integer setcc operation!");
279   case ISD::SETEQ:
280   case ISD::SETNE: return 0;
281   case ISD::SETLT:
282   case ISD::SETLE:
283   case ISD::SETGT:
284   case ISD::SETGE: return 1;
285   case ISD::SETULT:
286   case ISD::SETULE:
287   case ISD::SETUGT:
288   case ISD::SETUGE: return 2;
289   }
290 }
291
292 /// getSetCCOrOperation - Return the result of a logical OR between different
293 /// comparisons of identical values: ((X op1 Y) | (X op2 Y)).  This function
294 /// returns SETCC_INVALID if it is not possible to represent the resultant
295 /// comparison.
296 ISD::CondCode ISD::getSetCCOrOperation(ISD::CondCode Op1, ISD::CondCode Op2,
297                                        bool isInteger) {
298   if (isInteger && (isSignedOp(Op1) | isSignedOp(Op2)) == 3)
299     // Cannot fold a signed integer setcc with an unsigned integer setcc.
300     return ISD::SETCC_INVALID;
301
302   unsigned Op = Op1 | Op2;  // Combine all of the condition bits.
303
304   // If the N and U bits get set then the resultant comparison DOES suddenly
305   // care about orderedness, and is true when ordered.
306   if (Op > ISD::SETTRUE2)
307     Op &= ~16;     // Clear the U bit if the N bit is set.
308
309   // Canonicalize illegal integer setcc's.
310   if (isInteger && Op == ISD::SETUNE)  // e.g. SETUGT | SETULT
311     Op = ISD::SETNE;
312
313   return ISD::CondCode(Op);
314 }
315
316 /// getSetCCAndOperation - Return the result of a logical AND between different
317 /// comparisons of identical values: ((X op1 Y) & (X op2 Y)).  This
318 /// function returns zero if it is not possible to represent the resultant
319 /// comparison.
320 ISD::CondCode ISD::getSetCCAndOperation(ISD::CondCode Op1, ISD::CondCode Op2,
321                                         bool isInteger) {
322   if (isInteger && (isSignedOp(Op1) | isSignedOp(Op2)) == 3)
323     // Cannot fold a signed setcc with an unsigned setcc.
324     return ISD::SETCC_INVALID;
325
326   // Combine all of the condition bits.
327   ISD::CondCode Result = ISD::CondCode(Op1 & Op2);
328
329   // Canonicalize illegal integer setcc's.
330   if (isInteger) {
331     switch (Result) {
332     default: break;
333     case ISD::SETUO : Result = ISD::SETFALSE; break;  // SETUGT & SETULT
334     case ISD::SETOEQ:                                 // SETEQ  & SETU[LG]E
335     case ISD::SETUEQ: Result = ISD::SETEQ   ; break;  // SETUGE & SETULE
336     case ISD::SETOLT: Result = ISD::SETULT  ; break;  // SETULT & SETNE
337     case ISD::SETOGT: Result = ISD::SETUGT  ; break;  // SETUGT & SETNE
338     }
339   }
340
341   return Result;
342 }
343
344 //===----------------------------------------------------------------------===//
345 //                           SDNode Profile Support
346 //===----------------------------------------------------------------------===//
347
348 /// AddNodeIDOpcode - Add the node opcode to the NodeID data.
349 ///
350 static void AddNodeIDOpcode(FoldingSetNodeID &ID, unsigned OpC)  {
351   ID.AddInteger(OpC);
352 }
353
354 /// AddNodeIDValueTypes - Value type lists are intern'd so we can represent them
355 /// solely with their pointer.
356 static void AddNodeIDValueTypes(FoldingSetNodeID &ID, SDVTList VTList) {
357   ID.AddPointer(VTList.VTs);
358 }
359
360 /// AddNodeIDOperands - Various routines for adding operands to the NodeID data.
361 ///
362 static void AddNodeIDOperands(FoldingSetNodeID &ID,
363                               ArrayRef<SDValue> Ops) {
364   for (auto& Op : Ops) {
365     ID.AddPointer(Op.getNode());
366     ID.AddInteger(Op.getResNo());
367   }
368 }
369
370 /// AddNodeIDOperands - Various routines for adding operands to the NodeID data.
371 ///
372 static void AddNodeIDOperands(FoldingSetNodeID &ID,
373                               ArrayRef<SDUse> Ops) {
374   for (auto& Op : Ops) {
375     ID.AddPointer(Op.getNode());
376     ID.AddInteger(Op.getResNo());
377   }
378 }
379
380 /// Add logical or fast math flag values to FoldingSetNodeID value.
381 static void AddNodeIDFlags(FoldingSetNodeID &ID, unsigned Opcode,
382                            const SDNodeFlags *Flags) {
383   if (!isBinOpWithFlags(Opcode))
384     return;
385
386   unsigned RawFlags = 0;
387   if (Flags)
388     RawFlags = Flags->getRawFlags();
389   ID.AddInteger(RawFlags);
390 }
391
392 static void AddNodeIDFlags(FoldingSetNodeID &ID, const SDNode *N) {
393   AddNodeIDFlags(ID, N->getOpcode(), N->getFlags());
394 }
395
396 static void AddNodeIDNode(FoldingSetNodeID &ID, unsigned short OpC,
397                           SDVTList VTList, ArrayRef<SDValue> OpList) {
398   AddNodeIDOpcode(ID, OpC);
399   AddNodeIDValueTypes(ID, VTList);
400   AddNodeIDOperands(ID, OpList);
401 }
402
403 /// If this is an SDNode with special info, add this info to the NodeID data.
404 static void AddNodeIDCustom(FoldingSetNodeID &ID, const SDNode *N) {
405   switch (N->getOpcode()) {
406   case ISD::TargetExternalSymbol:
407   case ISD::ExternalSymbol:
408   case ISD::MCSymbol:
409     llvm_unreachable("Should only be used on nodes with operands");
410   default: break;  // Normal nodes don't need extra info.
411   case ISD::TargetConstant:
412   case ISD::Constant: {
413     const ConstantSDNode *C = cast<ConstantSDNode>(N);
414     ID.AddPointer(C->getConstantIntValue());
415     ID.AddBoolean(C->isOpaque());
416     break;
417   }
418   case ISD::TargetConstantFP:
419   case ISD::ConstantFP: {
420     ID.AddPointer(cast<ConstantFPSDNode>(N)->getConstantFPValue());
421     break;
422   }
423   case ISD::TargetGlobalAddress:
424   case ISD::GlobalAddress:
425   case ISD::TargetGlobalTLSAddress:
426   case ISD::GlobalTLSAddress: {
427     const GlobalAddressSDNode *GA = cast<GlobalAddressSDNode>(N);
428     ID.AddPointer(GA->getGlobal());
429     ID.AddInteger(GA->getOffset());
430     ID.AddInteger(GA->getTargetFlags());
431     ID.AddInteger(GA->getAddressSpace());
432     break;
433   }
434   case ISD::BasicBlock:
435     ID.AddPointer(cast<BasicBlockSDNode>(N)->getBasicBlock());
436     break;
437   case ISD::Register:
438     ID.AddInteger(cast<RegisterSDNode>(N)->getReg());
439     break;
440   case ISD::RegisterMask:
441     ID.AddPointer(cast<RegisterMaskSDNode>(N)->getRegMask());
442     break;
443   case ISD::SRCVALUE:
444     ID.AddPointer(cast<SrcValueSDNode>(N)->getValue());
445     break;
446   case ISD::FrameIndex:
447   case ISD::TargetFrameIndex:
448     ID.AddInteger(cast<FrameIndexSDNode>(N)->getIndex());
449     break;
450   case ISD::JumpTable:
451   case ISD::TargetJumpTable:
452     ID.AddInteger(cast<JumpTableSDNode>(N)->getIndex());
453     ID.AddInteger(cast<JumpTableSDNode>(N)->getTargetFlags());
454     break;
455   case ISD::ConstantPool:
456   case ISD::TargetConstantPool: {
457     const ConstantPoolSDNode *CP = cast<ConstantPoolSDNode>(N);
458     ID.AddInteger(CP->getAlignment());
459     ID.AddInteger(CP->getOffset());
460     if (CP->isMachineConstantPoolEntry())
461       CP->getMachineCPVal()->addSelectionDAGCSEId(ID);
462     else
463       ID.AddPointer(CP->getConstVal());
464     ID.AddInteger(CP->getTargetFlags());
465     break;
466   }
467   case ISD::TargetIndex: {
468     const TargetIndexSDNode *TI = cast<TargetIndexSDNode>(N);
469     ID.AddInteger(TI->getIndex());
470     ID.AddInteger(TI->getOffset());
471     ID.AddInteger(TI->getTargetFlags());
472     break;
473   }
474   case ISD::LOAD: {
475     const LoadSDNode *LD = cast<LoadSDNode>(N);
476     ID.AddInteger(LD->getMemoryVT().getRawBits());
477     ID.AddInteger(LD->getRawSubclassData());
478     ID.AddInteger(LD->getPointerInfo().getAddrSpace());
479     break;
480   }
481   case ISD::STORE: {
482     const StoreSDNode *ST = cast<StoreSDNode>(N);
483     ID.AddInteger(ST->getMemoryVT().getRawBits());
484     ID.AddInteger(ST->getRawSubclassData());
485     ID.AddInteger(ST->getPointerInfo().getAddrSpace());
486     break;
487   }
488   case ISD::ATOMIC_CMP_SWAP:
489   case ISD::ATOMIC_CMP_SWAP_WITH_SUCCESS:
490   case ISD::ATOMIC_SWAP:
491   case ISD::ATOMIC_LOAD_ADD:
492   case ISD::ATOMIC_LOAD_SUB:
493   case ISD::ATOMIC_LOAD_AND:
494   case ISD::ATOMIC_LOAD_OR:
495   case ISD::ATOMIC_LOAD_XOR:
496   case ISD::ATOMIC_LOAD_NAND:
497   case ISD::ATOMIC_LOAD_MIN:
498   case ISD::ATOMIC_LOAD_MAX:
499   case ISD::ATOMIC_LOAD_UMIN:
500   case ISD::ATOMIC_LOAD_UMAX:
501   case ISD::ATOMIC_LOAD:
502   case ISD::ATOMIC_STORE: {
503     const AtomicSDNode *AT = cast<AtomicSDNode>(N);
504     ID.AddInteger(AT->getMemoryVT().getRawBits());
505     ID.AddInteger(AT->getRawSubclassData());
506     ID.AddInteger(AT->getPointerInfo().getAddrSpace());
507     break;
508   }
509   case ISD::PREFETCH: {
510     const MemSDNode *PF = cast<MemSDNode>(N);
511     ID.AddInteger(PF->getPointerInfo().getAddrSpace());
512     break;
513   }
514   case ISD::VECTOR_SHUFFLE: {
515     const ShuffleVectorSDNode *SVN = cast<ShuffleVectorSDNode>(N);
516     for (unsigned i = 0, e = N->getValueType(0).getVectorNumElements();
517          i != e; ++i)
518       ID.AddInteger(SVN->getMaskElt(i));
519     break;
520   }
521   case ISD::TargetBlockAddress:
522   case ISD::BlockAddress: {
523     const BlockAddressSDNode *BA = cast<BlockAddressSDNode>(N);
524     ID.AddPointer(BA->getBlockAddress());
525     ID.AddInteger(BA->getOffset());
526     ID.AddInteger(BA->getTargetFlags());
527     break;
528   }
529   } // end switch (N->getOpcode())
530
531   AddNodeIDFlags(ID, N);
532
533   // Target specific memory nodes could also have address spaces to check.
534   if (N->isTargetMemoryOpcode())
535     ID.AddInteger(cast<MemSDNode>(N)->getPointerInfo().getAddrSpace());
536 }
537
538 /// AddNodeIDNode - Generic routine for adding a nodes info to the NodeID
539 /// data.
540 static void AddNodeIDNode(FoldingSetNodeID &ID, const SDNode *N) {
541   AddNodeIDOpcode(ID, N->getOpcode());
542   // Add the return value info.
543   AddNodeIDValueTypes(ID, N->getVTList());
544   // Add the operand info.
545   AddNodeIDOperands(ID, N->ops());
546
547   // Handle SDNode leafs with special info.
548   AddNodeIDCustom(ID, N);
549 }
550
551 /// encodeMemSDNodeFlags - Generic routine for computing a value for use in
552 /// the CSE map that carries volatility, temporalness, indexing mode, and
553 /// extension/truncation information.
554 ///
555 static inline unsigned
556 encodeMemSDNodeFlags(int ConvType, ISD::MemIndexedMode AM, bool isVolatile,
557                      bool isNonTemporal, bool isInvariant) {
558   assert((ConvType & 3) == ConvType &&
559          "ConvType may not require more than 2 bits!");
560   assert((AM & 7) == AM &&
561          "AM may not require more than 3 bits!");
562   return ConvType |
563          (AM << 2) |
564          (isVolatile << 5) |
565          (isNonTemporal << 6) |
566          (isInvariant << 7);
567 }
568
569 //===----------------------------------------------------------------------===//
570 //                              SelectionDAG Class
571 //===----------------------------------------------------------------------===//
572
573 /// doNotCSE - Return true if CSE should not be performed for this node.
574 static bool doNotCSE(SDNode *N) {
575   if (N->getValueType(0) == MVT::Glue)
576     return true; // Never CSE anything that produces a flag.
577
578   switch (N->getOpcode()) {
579   default: break;
580   case ISD::HANDLENODE:
581   case ISD::EH_LABEL:
582     return true;   // Never CSE these nodes.
583   }
584
585   // Check that remaining values produced are not flags.
586   for (unsigned i = 1, e = N->getNumValues(); i != e; ++i)
587     if (N->getValueType(i) == MVT::Glue)
588       return true; // Never CSE anything that produces a flag.
589
590   return false;
591 }
592
593 /// RemoveDeadNodes - This method deletes all unreachable nodes in the
594 /// SelectionDAG.
595 void SelectionDAG::RemoveDeadNodes() {
596   // Create a dummy node (which is not added to allnodes), that adds a reference
597   // to the root node, preventing it from being deleted.
598   HandleSDNode Dummy(getRoot());
599
600   SmallVector<SDNode*, 128> DeadNodes;
601
602   // Add all obviously-dead nodes to the DeadNodes worklist.
603   for (SDNode &Node : allnodes())
604     if (Node.use_empty())
605       DeadNodes.push_back(&Node);
606
607   RemoveDeadNodes(DeadNodes);
608
609   // If the root changed (e.g. it was a dead load, update the root).
610   setRoot(Dummy.getValue());
611 }
612
613 /// RemoveDeadNodes - This method deletes the unreachable nodes in the
614 /// given list, and any nodes that become unreachable as a result.
615 void SelectionDAG::RemoveDeadNodes(SmallVectorImpl<SDNode *> &DeadNodes) {
616
617   // Process the worklist, deleting the nodes and adding their uses to the
618   // worklist.
619   while (!DeadNodes.empty()) {
620     SDNode *N = DeadNodes.pop_back_val();
621
622     for (DAGUpdateListener *DUL = UpdateListeners; DUL; DUL = DUL->Next)
623       DUL->NodeDeleted(N, nullptr);
624
625     // Take the node out of the appropriate CSE map.
626     RemoveNodeFromCSEMaps(N);
627
628     // Next, brutally remove the operand list.  This is safe to do, as there are
629     // no cycles in the graph.
630     for (SDNode::op_iterator I = N->op_begin(), E = N->op_end(); I != E; ) {
631       SDUse &Use = *I++;
632       SDNode *Operand = Use.getNode();
633       Use.set(SDValue());
634
635       // Now that we removed this operand, see if there are no uses of it left.
636       if (Operand->use_empty())
637         DeadNodes.push_back(Operand);
638     }
639
640     DeallocateNode(N);
641   }
642 }
643
644 void SelectionDAG::RemoveDeadNode(SDNode *N){
645   SmallVector<SDNode*, 16> DeadNodes(1, N);
646
647   // Create a dummy node that adds a reference to the root node, preventing
648   // it from being deleted.  (This matters if the root is an operand of the
649   // dead node.)
650   HandleSDNode Dummy(getRoot());
651
652   RemoveDeadNodes(DeadNodes);
653 }
654
655 void SelectionDAG::DeleteNode(SDNode *N) {
656   // First take this out of the appropriate CSE map.
657   RemoveNodeFromCSEMaps(N);
658
659   // Finally, remove uses due to operands of this node, remove from the
660   // AllNodes list, and delete the node.
661   DeleteNodeNotInCSEMaps(N);
662 }
663
664 void SelectionDAG::DeleteNodeNotInCSEMaps(SDNode *N) {
665   assert(N != AllNodes.begin() && "Cannot delete the entry node!");
666   assert(N->use_empty() && "Cannot delete a node that is not dead!");
667
668   // Drop all of the operands and decrement used node's use counts.
669   N->DropOperands();
670
671   DeallocateNode(N);
672 }
673
674 void SDDbgInfo::erase(const SDNode *Node) {
675   DbgValMapType::iterator I = DbgValMap.find(Node);
676   if (I == DbgValMap.end())
677     return;
678   for (auto &Val: I->second)
679     Val->setIsInvalidated();
680   DbgValMap.erase(I);
681 }
682
683 void SelectionDAG::DeallocateNode(SDNode *N) {
684   if (N->OperandsNeedDelete)
685     delete[] N->OperandList;
686
687   // Set the opcode to DELETED_NODE to help catch bugs when node
688   // memory is reallocated.
689   N->NodeType = ISD::DELETED_NODE;
690
691   NodeAllocator.Deallocate(AllNodes.remove(N));
692
693   // If any of the SDDbgValue nodes refer to this SDNode, invalidate
694   // them and forget about that node.
695   DbgInfo->erase(N);
696 }
697
698 #ifndef NDEBUG
699 /// VerifySDNode - Sanity check the given SDNode.  Aborts if it is invalid.
700 static void VerifySDNode(SDNode *N) {
701   switch (N->getOpcode()) {
702   default:
703     break;
704   case ISD::BUILD_PAIR: {
705     EVT VT = N->getValueType(0);
706     assert(N->getNumValues() == 1 && "Too many results!");
707     assert(!VT.isVector() && (VT.isInteger() || VT.isFloatingPoint()) &&
708            "Wrong return type!");
709     assert(N->getNumOperands() == 2 && "Wrong number of operands!");
710     assert(N->getOperand(0).getValueType() == N->getOperand(1).getValueType() &&
711            "Mismatched operand types!");
712     assert(N->getOperand(0).getValueType().isInteger() == VT.isInteger() &&
713            "Wrong operand type!");
714     assert(VT.getSizeInBits() == 2 * N->getOperand(0).getValueSizeInBits() &&
715            "Wrong return type size");
716     break;
717   }
718   case ISD::BUILD_VECTOR: {
719     assert(N->getNumValues() == 1 && "Too many results!");
720     assert(N->getValueType(0).isVector() && "Wrong return type!");
721     assert(N->getNumOperands() == N->getValueType(0).getVectorNumElements() &&
722            "Wrong number of operands!");
723     EVT EltVT = N->getValueType(0).getVectorElementType();
724     for (SDNode::op_iterator I = N->op_begin(), E = N->op_end(); I != E; ++I) {
725       assert((I->getValueType() == EltVT ||
726              (EltVT.isInteger() && I->getValueType().isInteger() &&
727               EltVT.bitsLE(I->getValueType()))) &&
728             "Wrong operand type!");
729       assert(I->getValueType() == N->getOperand(0).getValueType() &&
730              "Operands must all have the same type");
731     }
732     break;
733   }
734   }
735 }
736 #endif // NDEBUG
737
738 /// \brief Insert a newly allocated node into the DAG.
739 ///
740 /// Handles insertion into the all nodes list and CSE map, as well as
741 /// verification and other common operations when a new node is allocated.
742 void SelectionDAG::InsertNode(SDNode *N) {
743   AllNodes.push_back(N);
744 #ifndef NDEBUG
745   N->PersistentId = NextPersistentId++;
746   VerifySDNode(N);
747 #endif
748 }
749
750 /// RemoveNodeFromCSEMaps - Take the specified node out of the CSE map that
751 /// correspond to it.  This is useful when we're about to delete or repurpose
752 /// the node.  We don't want future request for structurally identical nodes
753 /// to return N anymore.
754 bool SelectionDAG::RemoveNodeFromCSEMaps(SDNode *N) {
755   bool Erased = false;
756   switch (N->getOpcode()) {
757   case ISD::HANDLENODE: return false;  // noop.
758   case ISD::CONDCODE:
759     assert(CondCodeNodes[cast<CondCodeSDNode>(N)->get()] &&
760            "Cond code doesn't exist!");
761     Erased = CondCodeNodes[cast<CondCodeSDNode>(N)->get()] != nullptr;
762     CondCodeNodes[cast<CondCodeSDNode>(N)->get()] = nullptr;
763     break;
764   case ISD::ExternalSymbol:
765     Erased = ExternalSymbols.erase(cast<ExternalSymbolSDNode>(N)->getSymbol());
766     break;
767   case ISD::TargetExternalSymbol: {
768     ExternalSymbolSDNode *ESN = cast<ExternalSymbolSDNode>(N);
769     Erased = TargetExternalSymbols.erase(
770                std::pair<std::string,unsigned char>(ESN->getSymbol(),
771                                                     ESN->getTargetFlags()));
772     break;
773   }
774   case ISD::MCSymbol: {
775     auto *MCSN = cast<MCSymbolSDNode>(N);
776     Erased = MCSymbols.erase(MCSN->getMCSymbol());
777     break;
778   }
779   case ISD::VALUETYPE: {
780     EVT VT = cast<VTSDNode>(N)->getVT();
781     if (VT.isExtended()) {
782       Erased = ExtendedValueTypeNodes.erase(VT);
783     } else {
784       Erased = ValueTypeNodes[VT.getSimpleVT().SimpleTy] != nullptr;
785       ValueTypeNodes[VT.getSimpleVT().SimpleTy] = nullptr;
786     }
787     break;
788   }
789   default:
790     // Remove it from the CSE Map.
791     assert(N->getOpcode() != ISD::DELETED_NODE && "DELETED_NODE in CSEMap!");
792     assert(N->getOpcode() != ISD::EntryToken && "EntryToken in CSEMap!");
793     Erased = CSEMap.RemoveNode(N);
794     break;
795   }
796 #ifndef NDEBUG
797   // Verify that the node was actually in one of the CSE maps, unless it has a
798   // flag result (which cannot be CSE'd) or is one of the special cases that are
799   // not subject to CSE.
800   if (!Erased && N->getValueType(N->getNumValues()-1) != MVT::Glue &&
801       !N->isMachineOpcode() && !doNotCSE(N)) {
802     N->dump(this);
803     dbgs() << "\n";
804     llvm_unreachable("Node is not in map!");
805   }
806 #endif
807   return Erased;
808 }
809
810 /// AddModifiedNodeToCSEMaps - The specified node has been removed from the CSE
811 /// maps and modified in place. Add it back to the CSE maps, unless an identical
812 /// node already exists, in which case transfer all its users to the existing
813 /// node. This transfer can potentially trigger recursive merging.
814 ///
815 void
816 SelectionDAG::AddModifiedNodeToCSEMaps(SDNode *N) {
817   // For node types that aren't CSE'd, just act as if no identical node
818   // already exists.
819   if (!doNotCSE(N)) {
820     SDNode *Existing = CSEMap.GetOrInsertNode(N);
821     if (Existing != N) {
822       // If there was already an existing matching node, use ReplaceAllUsesWith
823       // to replace the dead one with the existing one.  This can cause
824       // recursive merging of other unrelated nodes down the line.
825       ReplaceAllUsesWith(N, Existing);
826
827       // N is now dead. Inform the listeners and delete it.
828       for (DAGUpdateListener *DUL = UpdateListeners; DUL; DUL = DUL->Next)
829         DUL->NodeDeleted(N, Existing);
830       DeleteNodeNotInCSEMaps(N);
831       return;
832     }
833   }
834
835   // If the node doesn't already exist, we updated it.  Inform listeners.
836   for (DAGUpdateListener *DUL = UpdateListeners; DUL; DUL = DUL->Next)
837     DUL->NodeUpdated(N);
838 }
839
840 /// FindModifiedNodeSlot - Find a slot for the specified node if its operands
841 /// were replaced with those specified.  If this node is never memoized,
842 /// return null, otherwise return a pointer to the slot it would take.  If a
843 /// node already exists with these operands, the slot will be non-null.
844 SDNode *SelectionDAG::FindModifiedNodeSlot(SDNode *N, SDValue Op,
845                                            void *&InsertPos) {
846   if (doNotCSE(N))
847     return nullptr;
848
849   SDValue Ops[] = { Op };
850   FoldingSetNodeID ID;
851   AddNodeIDNode(ID, N->getOpcode(), N->getVTList(), Ops);
852   AddNodeIDCustom(ID, N);
853   SDNode *Node = FindNodeOrInsertPos(ID, N->getDebugLoc(), InsertPos);
854   return Node;
855 }
856
857 /// FindModifiedNodeSlot - Find a slot for the specified node if its operands
858 /// were replaced with those specified.  If this node is never memoized,
859 /// return null, otherwise return a pointer to the slot it would take.  If a
860 /// node already exists with these operands, the slot will be non-null.
861 SDNode *SelectionDAG::FindModifiedNodeSlot(SDNode *N,
862                                            SDValue Op1, SDValue Op2,
863                                            void *&InsertPos) {
864   if (doNotCSE(N))
865     return nullptr;
866
867   SDValue Ops[] = { Op1, Op2 };
868   FoldingSetNodeID ID;
869   AddNodeIDNode(ID, N->getOpcode(), N->getVTList(), Ops);
870   AddNodeIDCustom(ID, N);
871   SDNode *Node = FindNodeOrInsertPos(ID, N->getDebugLoc(), InsertPos);
872   return Node;
873 }
874
875
876 /// FindModifiedNodeSlot - Find a slot for the specified node if its operands
877 /// were replaced with those specified.  If this node is never memoized,
878 /// return null, otherwise return a pointer to the slot it would take.  If a
879 /// node already exists with these operands, the slot will be non-null.
880 SDNode *SelectionDAG::FindModifiedNodeSlot(SDNode *N, ArrayRef<SDValue> Ops,
881                                            void *&InsertPos) {
882   if (doNotCSE(N))
883     return nullptr;
884
885   FoldingSetNodeID ID;
886   AddNodeIDNode(ID, N->getOpcode(), N->getVTList(), Ops);
887   AddNodeIDCustom(ID, N);
888   SDNode *Node = FindNodeOrInsertPos(ID, N->getDebugLoc(), InsertPos);
889   return Node;
890 }
891
892 /// getEVTAlignment - Compute the default alignment value for the
893 /// given type.
894 ///
895 unsigned SelectionDAG::getEVTAlignment(EVT VT) const {
896   Type *Ty = VT == MVT::iPTR ?
897                    PointerType::get(Type::getInt8Ty(*getContext()), 0) :
898                    VT.getTypeForEVT(*getContext());
899
900   return getDataLayout().getABITypeAlignment(Ty);
901 }
902
903 // EntryNode could meaningfully have debug info if we can find it...
904 SelectionDAG::SelectionDAG(const TargetMachine &tm, CodeGenOpt::Level OL)
905     : TM(tm), TSI(nullptr), TLI(nullptr), OptLevel(OL),
906       EntryNode(ISD::EntryToken, 0, DebugLoc(), getVTList(MVT::Other)),
907       Root(getEntryNode()), NewNodesMustHaveLegalTypes(false),
908       UpdateListeners(nullptr) {
909   InsertNode(&EntryNode);
910   DbgInfo = new SDDbgInfo();
911 }
912
913 void SelectionDAG::init(MachineFunction &mf) {
914   MF = &mf;
915   TLI = getSubtarget().getTargetLowering();
916   TSI = getSubtarget().getSelectionDAGInfo();
917   Context = &mf.getFunction()->getContext();
918 }
919
920 SelectionDAG::~SelectionDAG() {
921   assert(!UpdateListeners && "Dangling registered DAGUpdateListeners");
922   allnodes_clear();
923   delete DbgInfo;
924 }
925
926 void SelectionDAG::allnodes_clear() {
927   assert(&*AllNodes.begin() == &EntryNode);
928   AllNodes.remove(AllNodes.begin());
929   while (!AllNodes.empty())
930     DeallocateNode(&AllNodes.front());
931 #ifndef NDEBUG
932   NextPersistentId = 0;
933 #endif
934 }
935
936 BinarySDNode *SelectionDAG::GetBinarySDNode(unsigned Opcode, SDLoc DL,
937                                             SDVTList VTs, SDValue N1,
938                                             SDValue N2,
939                                             const SDNodeFlags *Flags) {
940   if (isBinOpWithFlags(Opcode)) {
941     // If no flags were passed in, use a default flags object.
942     SDNodeFlags F;
943     if (Flags == nullptr)
944       Flags = &F;
945
946     BinaryWithFlagsSDNode *FN = new (NodeAllocator) BinaryWithFlagsSDNode(
947         Opcode, DL.getIROrder(), DL.getDebugLoc(), VTs, N1, N2, *Flags);
948
949     return FN;
950   }
951
952   BinarySDNode *N = new (NodeAllocator)
953       BinarySDNode(Opcode, DL.getIROrder(), DL.getDebugLoc(), VTs, N1, N2);
954   return N;
955 }
956
957 SDNode *SelectionDAG::FindNodeOrInsertPos(const FoldingSetNodeID &ID,
958                                           void *&InsertPos) {
959   SDNode *N = CSEMap.FindNodeOrInsertPos(ID, InsertPos);
960   if (N) {
961     switch (N->getOpcode()) {
962     default: break;
963     case ISD::Constant:
964     case ISD::ConstantFP:
965       llvm_unreachable("Querying for Constant and ConstantFP nodes requires "
966                        "debug location.  Use another overload.");
967     }
968   }
969   return N;
970 }
971
972 SDNode *SelectionDAG::FindNodeOrInsertPos(const FoldingSetNodeID &ID,
973                                           DebugLoc DL, void *&InsertPos) {
974   SDNode *N = CSEMap.FindNodeOrInsertPos(ID, InsertPos);
975   if (N) {
976     switch (N->getOpcode()) {
977     default: break; // Process only regular (non-target) constant nodes.
978     case ISD::Constant:
979     case ISD::ConstantFP:
980       // Erase debug location from the node if the node is used at several
981       // different places to do not propagate one location to all uses as it
982       // leads to incorrect debug info.
983       if (N->getDebugLoc() != DL)
984         N->setDebugLoc(DebugLoc());
985       break;
986     }
987   }
988   return N;
989 }
990
991 void SelectionDAG::clear() {
992   allnodes_clear();
993   OperandAllocator.Reset();
994   CSEMap.clear();
995
996   ExtendedValueTypeNodes.clear();
997   ExternalSymbols.clear();
998   TargetExternalSymbols.clear();
999   MCSymbols.clear();
1000   std::fill(CondCodeNodes.begin(), CondCodeNodes.end(),
1001             static_cast<CondCodeSDNode*>(nullptr));
1002   std::fill(ValueTypeNodes.begin(), ValueTypeNodes.end(),
1003             static_cast<SDNode*>(nullptr));
1004
1005   EntryNode.UseList = nullptr;
1006   InsertNode(&EntryNode);
1007   Root = getEntryNode();
1008   DbgInfo->clear();
1009 }
1010
1011 SDValue SelectionDAG::getAnyExtOrTrunc(SDValue Op, SDLoc DL, EVT VT) {
1012   return VT.bitsGT(Op.getValueType()) ?
1013     getNode(ISD::ANY_EXTEND, DL, VT, Op) :
1014     getNode(ISD::TRUNCATE, DL, VT, Op);
1015 }
1016
1017 SDValue SelectionDAG::getSExtOrTrunc(SDValue Op, SDLoc DL, EVT VT) {
1018   return VT.bitsGT(Op.getValueType()) ?
1019     getNode(ISD::SIGN_EXTEND, DL, VT, Op) :
1020     getNode(ISD::TRUNCATE, DL, VT, Op);
1021 }
1022
1023 SDValue SelectionDAG::getZExtOrTrunc(SDValue Op, SDLoc DL, EVT VT) {
1024   return VT.bitsGT(Op.getValueType()) ?
1025     getNode(ISD::ZERO_EXTEND, DL, VT, Op) :
1026     getNode(ISD::TRUNCATE, DL, VT, Op);
1027 }
1028
1029 SDValue SelectionDAG::getBoolExtOrTrunc(SDValue Op, SDLoc SL, EVT VT,
1030                                         EVT OpVT) {
1031   if (VT.bitsLE(Op.getValueType()))
1032     return getNode(ISD::TRUNCATE, SL, VT, Op);
1033
1034   TargetLowering::BooleanContent BType = TLI->getBooleanContents(OpVT);
1035   return getNode(TLI->getExtendForContent(BType), SL, VT, Op);
1036 }
1037
1038 SDValue SelectionDAG::getZeroExtendInReg(SDValue Op, SDLoc DL, EVT VT) {
1039   assert(!VT.isVector() &&
1040          "getZeroExtendInReg should use the vector element type instead of "
1041          "the vector type!");
1042   if (Op.getValueType() == VT) return Op;
1043   unsigned BitWidth = Op.getValueType().getScalarType().getSizeInBits();
1044   APInt Imm = APInt::getLowBitsSet(BitWidth,
1045                                    VT.getSizeInBits());
1046   return getNode(ISD::AND, DL, Op.getValueType(), Op,
1047                  getConstant(Imm, DL, Op.getValueType()));
1048 }
1049
1050 SDValue SelectionDAG::getAnyExtendVectorInReg(SDValue Op, SDLoc DL, EVT VT) {
1051   assert(VT.isVector() && "This DAG node is restricted to vector types.");
1052   assert(VT.getSizeInBits() == Op.getValueType().getSizeInBits() &&
1053          "The sizes of the input and result must match in order to perform the "
1054          "extend in-register.");
1055   assert(VT.getVectorNumElements() < Op.getValueType().getVectorNumElements() &&
1056          "The destination vector type must have fewer lanes than the input.");
1057   return getNode(ISD::ANY_EXTEND_VECTOR_INREG, DL, VT, Op);
1058 }
1059
1060 SDValue SelectionDAG::getSignExtendVectorInReg(SDValue Op, SDLoc DL, EVT VT) {
1061   assert(VT.isVector() && "This DAG node is restricted to vector types.");
1062   assert(VT.getSizeInBits() == Op.getValueType().getSizeInBits() &&
1063          "The sizes of the input and result must match in order to perform the "
1064          "extend in-register.");
1065   assert(VT.getVectorNumElements() < Op.getValueType().getVectorNumElements() &&
1066          "The destination vector type must have fewer lanes than the input.");
1067   return getNode(ISD::SIGN_EXTEND_VECTOR_INREG, DL, VT, Op);
1068 }
1069
1070 SDValue SelectionDAG::getZeroExtendVectorInReg(SDValue Op, SDLoc DL, EVT VT) {
1071   assert(VT.isVector() && "This DAG node is restricted to vector types.");
1072   assert(VT.getSizeInBits() == Op.getValueType().getSizeInBits() &&
1073          "The sizes of the input and result must match in order to perform the "
1074          "extend in-register.");
1075   assert(VT.getVectorNumElements() < Op.getValueType().getVectorNumElements() &&
1076          "The destination vector type must have fewer lanes than the input.");
1077   return getNode(ISD::ZERO_EXTEND_VECTOR_INREG, DL, VT, Op);
1078 }
1079
1080 /// getNOT - Create a bitwise NOT operation as (XOR Val, -1).
1081 ///
1082 SDValue SelectionDAG::getNOT(SDLoc DL, SDValue Val, EVT VT) {
1083   EVT EltVT = VT.getScalarType();
1084   SDValue NegOne =
1085     getConstant(APInt::getAllOnesValue(EltVT.getSizeInBits()), DL, VT);
1086   return getNode(ISD::XOR, DL, VT, Val, NegOne);
1087 }
1088
1089 SDValue SelectionDAG::getLogicalNOT(SDLoc DL, SDValue Val, EVT VT) {
1090   EVT EltVT = VT.getScalarType();
1091   SDValue TrueValue;
1092   switch (TLI->getBooleanContents(VT)) {
1093     case TargetLowering::ZeroOrOneBooleanContent:
1094     case TargetLowering::UndefinedBooleanContent:
1095       TrueValue = getConstant(1, DL, VT);
1096       break;
1097     case TargetLowering::ZeroOrNegativeOneBooleanContent:
1098       TrueValue = getConstant(APInt::getAllOnesValue(EltVT.getSizeInBits()), DL,
1099                               VT);
1100       break;
1101   }
1102   return getNode(ISD::XOR, DL, VT, Val, TrueValue);
1103 }
1104
1105 SDValue SelectionDAG::getConstant(uint64_t Val, SDLoc DL, EVT VT, bool isT,
1106                                   bool isO) {
1107   EVT EltVT = VT.getScalarType();
1108   assert((EltVT.getSizeInBits() >= 64 ||
1109          (uint64_t)((int64_t)Val >> EltVT.getSizeInBits()) + 1 < 2) &&
1110          "getConstant with a uint64_t value that doesn't fit in the type!");
1111   return getConstant(APInt(EltVT.getSizeInBits(), Val), DL, VT, isT, isO);
1112 }
1113
1114 SDValue SelectionDAG::getConstant(const APInt &Val, SDLoc DL, EVT VT, bool isT,
1115                                   bool isO)
1116 {
1117   return getConstant(*ConstantInt::get(*Context, Val), DL, VT, isT, isO);
1118 }
1119
1120 SDValue SelectionDAG::getConstant(const ConstantInt &Val, SDLoc DL, EVT VT,
1121                                   bool isT, bool isO) {
1122   assert(VT.isInteger() && "Cannot create FP integer constant!");
1123
1124   EVT EltVT = VT.getScalarType();
1125   const ConstantInt *Elt = &Val;
1126
1127   // In some cases the vector type is legal but the element type is illegal and
1128   // needs to be promoted, for example v8i8 on ARM.  In this case, promote the
1129   // inserted value (the type does not need to match the vector element type).
1130   // Any extra bits introduced will be truncated away.
1131   if (VT.isVector() && TLI->getTypeAction(*getContext(), EltVT) ==
1132       TargetLowering::TypePromoteInteger) {
1133    EltVT = TLI->getTypeToTransformTo(*getContext(), EltVT);
1134    APInt NewVal = Elt->getValue().zext(EltVT.getSizeInBits());
1135    Elt = ConstantInt::get(*getContext(), NewVal);
1136   }
1137   // In other cases the element type is illegal and needs to be expanded, for
1138   // example v2i64 on MIPS32. In this case, find the nearest legal type, split
1139   // the value into n parts and use a vector type with n-times the elements.
1140   // Then bitcast to the type requested.
1141   // Legalizing constants too early makes the DAGCombiner's job harder so we
1142   // only legalize if the DAG tells us we must produce legal types.
1143   else if (NewNodesMustHaveLegalTypes && VT.isVector() &&
1144            TLI->getTypeAction(*getContext(), EltVT) ==
1145            TargetLowering::TypeExpandInteger) {
1146     APInt NewVal = Elt->getValue();
1147     EVT ViaEltVT = TLI->getTypeToTransformTo(*getContext(), EltVT);
1148     unsigned ViaEltSizeInBits = ViaEltVT.getSizeInBits();
1149     unsigned ViaVecNumElts = VT.getSizeInBits() / ViaEltSizeInBits;
1150     EVT ViaVecVT = EVT::getVectorVT(*getContext(), ViaEltVT, ViaVecNumElts);
1151
1152     // Check the temporary vector is the correct size. If this fails then
1153     // getTypeToTransformTo() probably returned a type whose size (in bits)
1154     // isn't a power-of-2 factor of the requested type size.
1155     assert(ViaVecVT.getSizeInBits() == VT.getSizeInBits());
1156
1157     SmallVector<SDValue, 2> EltParts;
1158     for (unsigned i = 0; i < ViaVecNumElts / VT.getVectorNumElements(); ++i) {
1159       EltParts.push_back(getConstant(NewVal.lshr(i * ViaEltSizeInBits)
1160                                            .trunc(ViaEltSizeInBits), DL,
1161                                      ViaEltVT, isT, isO));
1162     }
1163
1164     // EltParts is currently in little endian order. If we actually want
1165     // big-endian order then reverse it now.
1166     if (getDataLayout().isBigEndian())
1167       std::reverse(EltParts.begin(), EltParts.end());
1168
1169     // The elements must be reversed when the element order is different
1170     // to the endianness of the elements (because the BITCAST is itself a
1171     // vector shuffle in this situation). However, we do not need any code to
1172     // perform this reversal because getConstant() is producing a vector
1173     // splat.
1174     // This situation occurs in MIPS MSA.
1175
1176     SmallVector<SDValue, 8> Ops;
1177     for (unsigned i = 0; i < VT.getVectorNumElements(); ++i)
1178       Ops.insert(Ops.end(), EltParts.begin(), EltParts.end());
1179
1180     SDValue Result = getNode(ISD::BITCAST, SDLoc(), VT,
1181                              getNode(ISD::BUILD_VECTOR, SDLoc(), ViaVecVT,
1182                                      Ops));
1183     return Result;
1184   }
1185
1186   assert(Elt->getBitWidth() == EltVT.getSizeInBits() &&
1187          "APInt size does not match type size!");
1188   unsigned Opc = isT ? ISD::TargetConstant : ISD::Constant;
1189   FoldingSetNodeID ID;
1190   AddNodeIDNode(ID, Opc, getVTList(EltVT), None);
1191   ID.AddPointer(Elt);
1192   ID.AddBoolean(isO);
1193   void *IP = nullptr;
1194   SDNode *N = nullptr;
1195   if ((N = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP)))
1196     if (!VT.isVector())
1197       return SDValue(N, 0);
1198
1199   if (!N) {
1200     N = new (NodeAllocator) ConstantSDNode(isT, isO, Elt, DL.getDebugLoc(),
1201                                            EltVT);
1202     CSEMap.InsertNode(N, IP);
1203     InsertNode(N);
1204   }
1205
1206   SDValue Result(N, 0);
1207   if (VT.isVector()) {
1208     SmallVector<SDValue, 8> Ops;
1209     Ops.assign(VT.getVectorNumElements(), Result);
1210     Result = getNode(ISD::BUILD_VECTOR, SDLoc(), VT, Ops);
1211   }
1212   return Result;
1213 }
1214
1215 SDValue SelectionDAG::getIntPtrConstant(uint64_t Val, SDLoc DL, bool isTarget) {
1216   return getConstant(Val, DL, TLI->getPointerTy(getDataLayout()), isTarget);
1217 }
1218
1219 SDValue SelectionDAG::getConstantFP(const APFloat& V, SDLoc DL, EVT VT,
1220                                     bool isTarget) {
1221   return getConstantFP(*ConstantFP::get(*getContext(), V), DL, VT, isTarget);
1222 }
1223
1224 SDValue SelectionDAG::getConstantFP(const ConstantFP& V, SDLoc DL, EVT VT,
1225                                     bool isTarget){
1226   assert(VT.isFloatingPoint() && "Cannot create integer FP constant!");
1227
1228   EVT EltVT = VT.getScalarType();
1229
1230   // Do the map lookup using the actual bit pattern for the floating point
1231   // value, so that we don't have problems with 0.0 comparing equal to -0.0, and
1232   // we don't have issues with SNANs.
1233   unsigned Opc = isTarget ? ISD::TargetConstantFP : ISD::ConstantFP;
1234   FoldingSetNodeID ID;
1235   AddNodeIDNode(ID, Opc, getVTList(EltVT), None);
1236   ID.AddPointer(&V);
1237   void *IP = nullptr;
1238   SDNode *N = nullptr;
1239   if ((N = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP)))
1240     if (!VT.isVector())
1241       return SDValue(N, 0);
1242
1243   if (!N) {
1244     N = new (NodeAllocator) ConstantFPSDNode(isTarget, &V, DL.getDebugLoc(),
1245                                              EltVT);
1246     CSEMap.InsertNode(N, IP);
1247     InsertNode(N);
1248   }
1249
1250   SDValue Result(N, 0);
1251   if (VT.isVector()) {
1252     SmallVector<SDValue, 8> Ops;
1253     Ops.assign(VT.getVectorNumElements(), Result);
1254     Result = getNode(ISD::BUILD_VECTOR, SDLoc(), VT, Ops);
1255   }
1256   return Result;
1257 }
1258
1259 SDValue SelectionDAG::getConstantFP(double Val, SDLoc DL, EVT VT,
1260                                     bool isTarget) {
1261   EVT EltVT = VT.getScalarType();
1262   if (EltVT==MVT::f32)
1263     return getConstantFP(APFloat((float)Val), DL, VT, isTarget);
1264   else if (EltVT==MVT::f64)
1265     return getConstantFP(APFloat(Val), DL, VT, isTarget);
1266   else if (EltVT==MVT::f80 || EltVT==MVT::f128 || EltVT==MVT::ppcf128 ||
1267            EltVT==MVT::f16) {
1268     bool ignored;
1269     APFloat apf = APFloat(Val);
1270     apf.convert(EVTToAPFloatSemantics(EltVT), APFloat::rmNearestTiesToEven,
1271                 &ignored);
1272     return getConstantFP(apf, DL, VT, isTarget);
1273   } else
1274     llvm_unreachable("Unsupported type in getConstantFP");
1275 }
1276
1277 SDValue SelectionDAG::getGlobalAddress(const GlobalValue *GV, SDLoc DL,
1278                                        EVT VT, int64_t Offset,
1279                                        bool isTargetGA,
1280                                        unsigned char TargetFlags) {
1281   assert((TargetFlags == 0 || isTargetGA) &&
1282          "Cannot set target flags on target-independent globals");
1283
1284   // Truncate (with sign-extension) the offset value to the pointer size.
1285   unsigned BitWidth = getDataLayout().getPointerTypeSizeInBits(GV->getType());
1286   if (BitWidth < 64)
1287     Offset = SignExtend64(Offset, BitWidth);
1288
1289   unsigned Opc;
1290   if (GV->isThreadLocal())
1291     Opc = isTargetGA ? ISD::TargetGlobalTLSAddress : ISD::GlobalTLSAddress;
1292   else
1293     Opc = isTargetGA ? ISD::TargetGlobalAddress : ISD::GlobalAddress;
1294
1295   FoldingSetNodeID ID;
1296   AddNodeIDNode(ID, Opc, getVTList(VT), None);
1297   ID.AddPointer(GV);
1298   ID.AddInteger(Offset);
1299   ID.AddInteger(TargetFlags);
1300   ID.AddInteger(GV->getType()->getAddressSpace());
1301   void *IP = nullptr;
1302   if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
1303     return SDValue(E, 0);
1304
1305   SDNode *N = new (NodeAllocator) GlobalAddressSDNode(Opc, DL.getIROrder(),
1306                                                       DL.getDebugLoc(), GV, VT,
1307                                                       Offset, TargetFlags);
1308   CSEMap.InsertNode(N, IP);
1309     InsertNode(N);
1310   return SDValue(N, 0);
1311 }
1312
1313 SDValue SelectionDAG::getFrameIndex(int FI, EVT VT, bool isTarget) {
1314   unsigned Opc = isTarget ? ISD::TargetFrameIndex : ISD::FrameIndex;
1315   FoldingSetNodeID ID;
1316   AddNodeIDNode(ID, Opc, getVTList(VT), None);
1317   ID.AddInteger(FI);
1318   void *IP = nullptr;
1319   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1320     return SDValue(E, 0);
1321
1322   SDNode *N = new (NodeAllocator) FrameIndexSDNode(FI, VT, isTarget);
1323   CSEMap.InsertNode(N, IP);
1324   InsertNode(N);
1325   return SDValue(N, 0);
1326 }
1327
1328 SDValue SelectionDAG::getJumpTable(int JTI, EVT VT, bool isTarget,
1329                                    unsigned char TargetFlags) {
1330   assert((TargetFlags == 0 || isTarget) &&
1331          "Cannot set target flags on target-independent jump tables");
1332   unsigned Opc = isTarget ? ISD::TargetJumpTable : ISD::JumpTable;
1333   FoldingSetNodeID ID;
1334   AddNodeIDNode(ID, Opc, getVTList(VT), None);
1335   ID.AddInteger(JTI);
1336   ID.AddInteger(TargetFlags);
1337   void *IP = nullptr;
1338   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1339     return SDValue(E, 0);
1340
1341   SDNode *N = new (NodeAllocator) JumpTableSDNode(JTI, VT, isTarget,
1342                                                   TargetFlags);
1343   CSEMap.InsertNode(N, IP);
1344   InsertNode(N);
1345   return SDValue(N, 0);
1346 }
1347
1348 SDValue SelectionDAG::getConstantPool(const Constant *C, EVT VT,
1349                                       unsigned Alignment, int Offset,
1350                                       bool isTarget,
1351                                       unsigned char TargetFlags) {
1352   assert((TargetFlags == 0 || isTarget) &&
1353          "Cannot set target flags on target-independent globals");
1354   if (Alignment == 0)
1355     Alignment = getDataLayout().getPrefTypeAlignment(C->getType());
1356   unsigned Opc = isTarget ? ISD::TargetConstantPool : ISD::ConstantPool;
1357   FoldingSetNodeID ID;
1358   AddNodeIDNode(ID, Opc, getVTList(VT), None);
1359   ID.AddInteger(Alignment);
1360   ID.AddInteger(Offset);
1361   ID.AddPointer(C);
1362   ID.AddInteger(TargetFlags);
1363   void *IP = nullptr;
1364   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1365     return SDValue(E, 0);
1366
1367   SDNode *N = new (NodeAllocator) ConstantPoolSDNode(isTarget, C, VT, Offset,
1368                                                      Alignment, TargetFlags);
1369   CSEMap.InsertNode(N, IP);
1370   InsertNode(N);
1371   return SDValue(N, 0);
1372 }
1373
1374
1375 SDValue SelectionDAG::getConstantPool(MachineConstantPoolValue *C, EVT VT,
1376                                       unsigned Alignment, int Offset,
1377                                       bool isTarget,
1378                                       unsigned char TargetFlags) {
1379   assert((TargetFlags == 0 || isTarget) &&
1380          "Cannot set target flags on target-independent globals");
1381   if (Alignment == 0)
1382     Alignment = getDataLayout().getPrefTypeAlignment(C->getType());
1383   unsigned Opc = isTarget ? ISD::TargetConstantPool : ISD::ConstantPool;
1384   FoldingSetNodeID ID;
1385   AddNodeIDNode(ID, Opc, getVTList(VT), None);
1386   ID.AddInteger(Alignment);
1387   ID.AddInteger(Offset);
1388   C->addSelectionDAGCSEId(ID);
1389   ID.AddInteger(TargetFlags);
1390   void *IP = nullptr;
1391   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1392     return SDValue(E, 0);
1393
1394   SDNode *N = new (NodeAllocator) ConstantPoolSDNode(isTarget, C, VT, Offset,
1395                                                      Alignment, TargetFlags);
1396   CSEMap.InsertNode(N, IP);
1397   InsertNode(N);
1398   return SDValue(N, 0);
1399 }
1400
1401 SDValue SelectionDAG::getTargetIndex(int Index, EVT VT, int64_t Offset,
1402                                      unsigned char TargetFlags) {
1403   FoldingSetNodeID ID;
1404   AddNodeIDNode(ID, ISD::TargetIndex, getVTList(VT), None);
1405   ID.AddInteger(Index);
1406   ID.AddInteger(Offset);
1407   ID.AddInteger(TargetFlags);
1408   void *IP = nullptr;
1409   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1410     return SDValue(E, 0);
1411
1412   SDNode *N =
1413       new (NodeAllocator) TargetIndexSDNode(Index, VT, Offset, TargetFlags);
1414   CSEMap.InsertNode(N, IP);
1415   InsertNode(N);
1416   return SDValue(N, 0);
1417 }
1418
1419 SDValue SelectionDAG::getBasicBlock(MachineBasicBlock *MBB) {
1420   FoldingSetNodeID ID;
1421   AddNodeIDNode(ID, ISD::BasicBlock, getVTList(MVT::Other), None);
1422   ID.AddPointer(MBB);
1423   void *IP = nullptr;
1424   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1425     return SDValue(E, 0);
1426
1427   SDNode *N = new (NodeAllocator) BasicBlockSDNode(MBB);
1428   CSEMap.InsertNode(N, IP);
1429   InsertNode(N);
1430   return SDValue(N, 0);
1431 }
1432
1433 SDValue SelectionDAG::getValueType(EVT VT) {
1434   if (VT.isSimple() && (unsigned)VT.getSimpleVT().SimpleTy >=
1435       ValueTypeNodes.size())
1436     ValueTypeNodes.resize(VT.getSimpleVT().SimpleTy+1);
1437
1438   SDNode *&N = VT.isExtended() ?
1439     ExtendedValueTypeNodes[VT] : ValueTypeNodes[VT.getSimpleVT().SimpleTy];
1440
1441   if (N) return SDValue(N, 0);
1442   N = new (NodeAllocator) VTSDNode(VT);
1443   InsertNode(N);
1444   return SDValue(N, 0);
1445 }
1446
1447 SDValue SelectionDAG::getExternalSymbol(const char *Sym, EVT VT) {
1448   SDNode *&N = ExternalSymbols[Sym];
1449   if (N) return SDValue(N, 0);
1450   N = new (NodeAllocator) ExternalSymbolSDNode(false, Sym, 0, VT);
1451   InsertNode(N);
1452   return SDValue(N, 0);
1453 }
1454
1455 SDValue SelectionDAG::getMCSymbol(MCSymbol *Sym, EVT VT) {
1456   SDNode *&N = MCSymbols[Sym];
1457   if (N)
1458     return SDValue(N, 0);
1459   N = new (NodeAllocator) MCSymbolSDNode(Sym, VT);
1460   InsertNode(N);
1461   return SDValue(N, 0);
1462 }
1463
1464 SDValue SelectionDAG::getTargetExternalSymbol(const char *Sym, EVT VT,
1465                                               unsigned char TargetFlags) {
1466   SDNode *&N =
1467     TargetExternalSymbols[std::pair<std::string,unsigned char>(Sym,
1468                                                                TargetFlags)];
1469   if (N) return SDValue(N, 0);
1470   N = new (NodeAllocator) ExternalSymbolSDNode(true, Sym, TargetFlags, VT);
1471   InsertNode(N);
1472   return SDValue(N, 0);
1473 }
1474
1475 SDValue SelectionDAG::getCondCode(ISD::CondCode Cond) {
1476   if ((unsigned)Cond >= CondCodeNodes.size())
1477     CondCodeNodes.resize(Cond+1);
1478
1479   if (!CondCodeNodes[Cond]) {
1480     CondCodeSDNode *N = new (NodeAllocator) CondCodeSDNode(Cond);
1481     CondCodeNodes[Cond] = N;
1482     InsertNode(N);
1483   }
1484
1485   return SDValue(CondCodeNodes[Cond], 0);
1486 }
1487
1488 // commuteShuffle - swaps the values of N1 and N2, and swaps all indices in
1489 // the shuffle mask M that point at N1 to point at N2, and indices that point
1490 // N2 to point at N1.
1491 static void commuteShuffle(SDValue &N1, SDValue &N2, SmallVectorImpl<int> &M) {
1492   std::swap(N1, N2);
1493   ShuffleVectorSDNode::commuteMask(M);
1494 }
1495
1496 SDValue SelectionDAG::getVectorShuffle(EVT VT, SDLoc dl, SDValue N1,
1497                                        SDValue N2, const int *Mask) {
1498   assert(VT == N1.getValueType() && VT == N2.getValueType() &&
1499          "Invalid VECTOR_SHUFFLE");
1500
1501   // Canonicalize shuffle undef, undef -> undef
1502   if (N1.getOpcode() == ISD::UNDEF && N2.getOpcode() == ISD::UNDEF)
1503     return getUNDEF(VT);
1504
1505   // Validate that all indices in Mask are within the range of the elements
1506   // input to the shuffle.
1507   unsigned NElts = VT.getVectorNumElements();
1508   SmallVector<int, 8> MaskVec;
1509   for (unsigned i = 0; i != NElts; ++i) {
1510     assert(Mask[i] < (int)(NElts * 2) && "Index out of range");
1511     MaskVec.push_back(Mask[i]);
1512   }
1513
1514   // Canonicalize shuffle v, v -> v, undef
1515   if (N1 == N2) {
1516     N2 = getUNDEF(VT);
1517     for (unsigned i = 0; i != NElts; ++i)
1518       if (MaskVec[i] >= (int)NElts) MaskVec[i] -= NElts;
1519   }
1520
1521   // Canonicalize shuffle undef, v -> v, undef.  Commute the shuffle mask.
1522   if (N1.getOpcode() == ISD::UNDEF)
1523     commuteShuffle(N1, N2, MaskVec);
1524
1525   // If shuffling a splat, try to blend the splat instead. We do this here so
1526   // that even when this arises during lowering we don't have to re-handle it.
1527   auto BlendSplat = [&](BuildVectorSDNode *BV, int Offset) {
1528     BitVector UndefElements;
1529     SDValue Splat = BV->getSplatValue(&UndefElements);
1530     if (!Splat)
1531       return;
1532
1533     for (int i = 0; i < (int)NElts; ++i) {
1534       if (MaskVec[i] < Offset || MaskVec[i] >= (Offset + (int)NElts))
1535         continue;
1536
1537       // If this input comes from undef, mark it as such.
1538       if (UndefElements[MaskVec[i] - Offset]) {
1539         MaskVec[i] = -1;
1540         continue;
1541       }
1542
1543       // If we can blend a non-undef lane, use that instead.
1544       if (!UndefElements[i])
1545         MaskVec[i] = i + Offset;
1546     }
1547   };
1548   if (auto *N1BV = dyn_cast<BuildVectorSDNode>(N1))
1549     BlendSplat(N1BV, 0);
1550   if (auto *N2BV = dyn_cast<BuildVectorSDNode>(N2))
1551     BlendSplat(N2BV, NElts);
1552
1553   // Canonicalize all index into lhs, -> shuffle lhs, undef
1554   // Canonicalize all index into rhs, -> shuffle rhs, undef
1555   bool AllLHS = true, AllRHS = true;
1556   bool N2Undef = N2.getOpcode() == ISD::UNDEF;
1557   for (unsigned i = 0; i != NElts; ++i) {
1558     if (MaskVec[i] >= (int)NElts) {
1559       if (N2Undef)
1560         MaskVec[i] = -1;
1561       else
1562         AllLHS = false;
1563     } else if (MaskVec[i] >= 0) {
1564       AllRHS = false;
1565     }
1566   }
1567   if (AllLHS && AllRHS)
1568     return getUNDEF(VT);
1569   if (AllLHS && !N2Undef)
1570     N2 = getUNDEF(VT);
1571   if (AllRHS) {
1572     N1 = getUNDEF(VT);
1573     commuteShuffle(N1, N2, MaskVec);
1574   }
1575   // Reset our undef status after accounting for the mask.
1576   N2Undef = N2.getOpcode() == ISD::UNDEF;
1577   // Re-check whether both sides ended up undef.
1578   if (N1.getOpcode() == ISD::UNDEF && N2Undef)
1579     return getUNDEF(VT);
1580
1581   // If Identity shuffle return that node.
1582   bool Identity = true, AllSame = true;
1583   for (unsigned i = 0; i != NElts; ++i) {
1584     if (MaskVec[i] >= 0 && MaskVec[i] != (int)i) Identity = false;
1585     if (MaskVec[i] != MaskVec[0]) AllSame = false;
1586   }
1587   if (Identity && NElts)
1588     return N1;
1589
1590   // Shuffling a constant splat doesn't change the result.
1591   if (N2Undef) {
1592     SDValue V = N1;
1593
1594     // Look through any bitcasts. We check that these don't change the number
1595     // (and size) of elements and just changes their types.
1596     while (V.getOpcode() == ISD::BITCAST)
1597       V = V->getOperand(0);
1598
1599     // A splat should always show up as a build vector node.
1600     if (auto *BV = dyn_cast<BuildVectorSDNode>(V)) {
1601       BitVector UndefElements;
1602       SDValue Splat = BV->getSplatValue(&UndefElements);
1603       // If this is a splat of an undef, shuffling it is also undef.
1604       if (Splat && Splat.getOpcode() == ISD::UNDEF)
1605         return getUNDEF(VT);
1606
1607       bool SameNumElts =
1608           V.getValueType().getVectorNumElements() == VT.getVectorNumElements();
1609
1610       // We only have a splat which can skip shuffles if there is a splatted
1611       // value and no undef lanes rearranged by the shuffle.
1612       if (Splat && UndefElements.none()) {
1613         // Splat of <x, x, ..., x>, return <x, x, ..., x>, provided that the
1614         // number of elements match or the value splatted is a zero constant.
1615         if (SameNumElts)
1616           return N1;
1617         if (auto *C = dyn_cast<ConstantSDNode>(Splat))
1618           if (C->isNullValue())
1619             return N1;
1620       }
1621
1622       // If the shuffle itself creates a splat, build the vector directly.
1623       if (AllSame && SameNumElts) {
1624         const SDValue &Splatted = BV->getOperand(MaskVec[0]);
1625         SmallVector<SDValue, 8> Ops(NElts, Splatted);
1626
1627         EVT BuildVT = BV->getValueType(0);
1628         SDValue NewBV = getNode(ISD::BUILD_VECTOR, dl, BuildVT, Ops);
1629
1630         // We may have jumped through bitcasts, so the type of the
1631         // BUILD_VECTOR may not match the type of the shuffle.
1632         if (BuildVT != VT)
1633           NewBV = getNode(ISD::BITCAST, dl, VT, NewBV);
1634         return NewBV;
1635       }
1636     }
1637   }
1638
1639   FoldingSetNodeID ID;
1640   SDValue Ops[2] = { N1, N2 };
1641   AddNodeIDNode(ID, ISD::VECTOR_SHUFFLE, getVTList(VT), Ops);
1642   for (unsigned i = 0; i != NElts; ++i)
1643     ID.AddInteger(MaskVec[i]);
1644
1645   void* IP = nullptr;
1646   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP))
1647     return SDValue(E, 0);
1648
1649   // Allocate the mask array for the node out of the BumpPtrAllocator, since
1650   // SDNode doesn't have access to it.  This memory will be "leaked" when
1651   // the node is deallocated, but recovered when the NodeAllocator is released.
1652   int *MaskAlloc = OperandAllocator.Allocate<int>(NElts);
1653   memcpy(MaskAlloc, &MaskVec[0], NElts * sizeof(int));
1654
1655   ShuffleVectorSDNode *N =
1656     new (NodeAllocator) ShuffleVectorSDNode(VT, dl.getIROrder(),
1657                                             dl.getDebugLoc(), N1, N2,
1658                                             MaskAlloc);
1659   CSEMap.InsertNode(N, IP);
1660   InsertNode(N);
1661   return SDValue(N, 0);
1662 }
1663
1664 SDValue SelectionDAG::getCommutedVectorShuffle(const ShuffleVectorSDNode &SV) {
1665   MVT VT = SV.getSimpleValueType(0);
1666   SmallVector<int, 8> MaskVec(SV.getMask().begin(), SV.getMask().end());
1667   ShuffleVectorSDNode::commuteMask(MaskVec);
1668
1669   SDValue Op0 = SV.getOperand(0);
1670   SDValue Op1 = SV.getOperand(1);
1671   return getVectorShuffle(VT, SDLoc(&SV), Op1, Op0, &MaskVec[0]);
1672 }
1673
1674 SDValue SelectionDAG::getConvertRndSat(EVT VT, SDLoc dl,
1675                                        SDValue Val, SDValue DTy,
1676                                        SDValue STy, SDValue Rnd, SDValue Sat,
1677                                        ISD::CvtCode Code) {
1678   // If the src and dest types are the same and the conversion is between
1679   // integer types of the same sign or two floats, no conversion is necessary.
1680   if (DTy == STy &&
1681       (Code == ISD::CVT_UU || Code == ISD::CVT_SS || Code == ISD::CVT_FF))
1682     return Val;
1683
1684   FoldingSetNodeID ID;
1685   SDValue Ops[] = { Val, DTy, STy, Rnd, Sat };
1686   AddNodeIDNode(ID, ISD::CONVERT_RNDSAT, getVTList(VT), Ops);
1687   void* IP = nullptr;
1688   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP))
1689     return SDValue(E, 0);
1690
1691   CvtRndSatSDNode *N = new (NodeAllocator) CvtRndSatSDNode(VT, dl.getIROrder(),
1692                                                            dl.getDebugLoc(),
1693                                                            Ops, Code);
1694   CSEMap.InsertNode(N, IP);
1695   InsertNode(N);
1696   return SDValue(N, 0);
1697 }
1698
1699 SDValue SelectionDAG::getRegister(unsigned RegNo, EVT VT) {
1700   FoldingSetNodeID ID;
1701   AddNodeIDNode(ID, ISD::Register, getVTList(VT), None);
1702   ID.AddInteger(RegNo);
1703   void *IP = nullptr;
1704   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1705     return SDValue(E, 0);
1706
1707   SDNode *N = new (NodeAllocator) RegisterSDNode(RegNo, VT);
1708   CSEMap.InsertNode(N, IP);
1709   InsertNode(N);
1710   return SDValue(N, 0);
1711 }
1712
1713 SDValue SelectionDAG::getRegisterMask(const uint32_t *RegMask) {
1714   FoldingSetNodeID ID;
1715   AddNodeIDNode(ID, ISD::RegisterMask, getVTList(MVT::Untyped), None);
1716   ID.AddPointer(RegMask);
1717   void *IP = nullptr;
1718   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1719     return SDValue(E, 0);
1720
1721   SDNode *N = new (NodeAllocator) RegisterMaskSDNode(RegMask);
1722   CSEMap.InsertNode(N, IP);
1723   InsertNode(N);
1724   return SDValue(N, 0);
1725 }
1726
1727 SDValue SelectionDAG::getEHLabel(SDLoc dl, SDValue Root, MCSymbol *Label) {
1728   FoldingSetNodeID ID;
1729   SDValue Ops[] = { Root };
1730   AddNodeIDNode(ID, ISD::EH_LABEL, getVTList(MVT::Other), Ops);
1731   ID.AddPointer(Label);
1732   void *IP = nullptr;
1733   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1734     return SDValue(E, 0);
1735
1736   SDNode *N = new (NodeAllocator) EHLabelSDNode(dl.getIROrder(),
1737                                                 dl.getDebugLoc(), Root, Label);
1738   CSEMap.InsertNode(N, IP);
1739   InsertNode(N);
1740   return SDValue(N, 0);
1741 }
1742
1743
1744 SDValue SelectionDAG::getBlockAddress(const BlockAddress *BA, EVT VT,
1745                                       int64_t Offset,
1746                                       bool isTarget,
1747                                       unsigned char TargetFlags) {
1748   unsigned Opc = isTarget ? ISD::TargetBlockAddress : ISD::BlockAddress;
1749
1750   FoldingSetNodeID ID;
1751   AddNodeIDNode(ID, Opc, getVTList(VT), None);
1752   ID.AddPointer(BA);
1753   ID.AddInteger(Offset);
1754   ID.AddInteger(TargetFlags);
1755   void *IP = nullptr;
1756   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1757     return SDValue(E, 0);
1758
1759   SDNode *N = new (NodeAllocator) BlockAddressSDNode(Opc, VT, BA, Offset,
1760                                                      TargetFlags);
1761   CSEMap.InsertNode(N, IP);
1762   InsertNode(N);
1763   return SDValue(N, 0);
1764 }
1765
1766 SDValue SelectionDAG::getSrcValue(const Value *V) {
1767   assert((!V || V->getType()->isPointerTy()) &&
1768          "SrcValue is not a pointer?");
1769
1770   FoldingSetNodeID ID;
1771   AddNodeIDNode(ID, ISD::SRCVALUE, getVTList(MVT::Other), None);
1772   ID.AddPointer(V);
1773
1774   void *IP = nullptr;
1775   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1776     return SDValue(E, 0);
1777
1778   SDNode *N = new (NodeAllocator) SrcValueSDNode(V);
1779   CSEMap.InsertNode(N, IP);
1780   InsertNode(N);
1781   return SDValue(N, 0);
1782 }
1783
1784 /// getMDNode - Return an MDNodeSDNode which holds an MDNode.
1785 SDValue SelectionDAG::getMDNode(const MDNode *MD) {
1786   FoldingSetNodeID ID;
1787   AddNodeIDNode(ID, ISD::MDNODE_SDNODE, getVTList(MVT::Other), None);
1788   ID.AddPointer(MD);
1789
1790   void *IP = nullptr;
1791   if (SDNode *E = FindNodeOrInsertPos(ID, IP))
1792     return SDValue(E, 0);
1793
1794   SDNode *N = new (NodeAllocator) MDNodeSDNode(MD);
1795   CSEMap.InsertNode(N, IP);
1796   InsertNode(N);
1797   return SDValue(N, 0);
1798 }
1799
1800 SDValue SelectionDAG::getBitcast(EVT VT, SDValue V) {
1801   if (VT == V.getValueType())
1802     return V;
1803
1804   return getNode(ISD::BITCAST, SDLoc(V), VT, V);
1805 }
1806
1807 /// getAddrSpaceCast - Return an AddrSpaceCastSDNode.
1808 SDValue SelectionDAG::getAddrSpaceCast(SDLoc dl, EVT VT, SDValue Ptr,
1809                                        unsigned SrcAS, unsigned DestAS) {
1810   SDValue Ops[] = {Ptr};
1811   FoldingSetNodeID ID;
1812   AddNodeIDNode(ID, ISD::ADDRSPACECAST, getVTList(VT), Ops);
1813   ID.AddInteger(SrcAS);
1814   ID.AddInteger(DestAS);
1815
1816   void *IP = nullptr;
1817   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP))
1818     return SDValue(E, 0);
1819
1820   SDNode *N = new (NodeAllocator) AddrSpaceCastSDNode(dl.getIROrder(),
1821                                                       dl.getDebugLoc(),
1822                                                       VT, Ptr, SrcAS, DestAS);
1823   CSEMap.InsertNode(N, IP);
1824   InsertNode(N);
1825   return SDValue(N, 0);
1826 }
1827
1828 /// getShiftAmountOperand - Return the specified value casted to
1829 /// the target's desired shift amount type.
1830 SDValue SelectionDAG::getShiftAmountOperand(EVT LHSTy, SDValue Op) {
1831   EVT OpTy = Op.getValueType();
1832   EVT ShTy = TLI->getShiftAmountTy(LHSTy, getDataLayout());
1833   if (OpTy == ShTy || OpTy.isVector()) return Op;
1834
1835   return getZExtOrTrunc(Op, SDLoc(Op), ShTy);
1836 }
1837
1838 SDValue SelectionDAG::expandVAArg(SDNode *Node) {
1839   SDLoc dl(Node);
1840   const TargetLowering &TLI = getTargetLoweringInfo();
1841   const Value *V = cast<SrcValueSDNode>(Node->getOperand(2))->getValue();
1842   EVT VT = Node->getValueType(0);
1843   SDValue Tmp1 = Node->getOperand(0);
1844   SDValue Tmp2 = Node->getOperand(1);
1845   unsigned Align = Node->getConstantOperandVal(3);
1846
1847   SDValue VAListLoad =
1848     getLoad(TLI.getPointerTy(getDataLayout()), dl, Tmp1, Tmp2,
1849             MachinePointerInfo(V), false, false, false, 0);
1850   SDValue VAList = VAListLoad;
1851
1852   if (Align > TLI.getMinStackArgumentAlignment()) {
1853     assert(((Align & (Align-1)) == 0) && "Expected Align to be a power of 2");
1854
1855     VAList = getNode(ISD::ADD, dl, VAList.getValueType(), VAList,
1856                      getConstant(Align - 1, dl, VAList.getValueType()));
1857
1858     VAList = getNode(ISD::AND, dl, VAList.getValueType(), VAList,
1859                      getConstant(-(int64_t)Align, dl, VAList.getValueType()));
1860   }
1861
1862   // Increment the pointer, VAList, to the next vaarg
1863   Tmp1 = getNode(ISD::ADD, dl, VAList.getValueType(), VAList,
1864                  getConstant(getDataLayout().getTypeAllocSize(
1865                                                VT.getTypeForEVT(*getContext())),
1866                              dl, VAList.getValueType()));
1867   // Store the incremented VAList to the legalized pointer
1868   Tmp1 = getStore(VAListLoad.getValue(1), dl, Tmp1, Tmp2,
1869                   MachinePointerInfo(V), false, false, 0);
1870   // Load the actual argument out of the pointer VAList
1871   return getLoad(VT, dl, Tmp1, VAList, MachinePointerInfo(),
1872                  false, false, false, 0);
1873 }
1874
1875 SDValue SelectionDAG::expandVACopy(SDNode *Node) {
1876   SDLoc dl(Node);
1877   const TargetLowering &TLI = getTargetLoweringInfo();
1878   // This defaults to loading a pointer from the input and storing it to the
1879   // output, returning the chain.
1880   const Value *VD = cast<SrcValueSDNode>(Node->getOperand(3))->getValue();
1881   const Value *VS = cast<SrcValueSDNode>(Node->getOperand(4))->getValue();
1882   SDValue Tmp1 = getLoad(TLI.getPointerTy(getDataLayout()), dl,
1883                          Node->getOperand(0), Node->getOperand(2),
1884                          MachinePointerInfo(VS), false, false, false, 0);
1885   return getStore(Tmp1.getValue(1), dl, Tmp1, Node->getOperand(1),
1886                   MachinePointerInfo(VD), false, false, 0);
1887 }
1888
1889 /// CreateStackTemporary - Create a stack temporary, suitable for holding the
1890 /// specified value type.
1891 SDValue SelectionDAG::CreateStackTemporary(EVT VT, unsigned minAlign) {
1892   MachineFrameInfo *FrameInfo = getMachineFunction().getFrameInfo();
1893   unsigned ByteSize = VT.getStoreSize();
1894   Type *Ty = VT.getTypeForEVT(*getContext());
1895   unsigned StackAlign =
1896       std::max((unsigned)getDataLayout().getPrefTypeAlignment(Ty), minAlign);
1897
1898   int FrameIdx = FrameInfo->CreateStackObject(ByteSize, StackAlign, false);
1899   return getFrameIndex(FrameIdx, TLI->getPointerTy(getDataLayout()));
1900 }
1901
1902 /// CreateStackTemporary - Create a stack temporary suitable for holding
1903 /// either of the specified value types.
1904 SDValue SelectionDAG::CreateStackTemporary(EVT VT1, EVT VT2) {
1905   unsigned Bytes = std::max(VT1.getStoreSize(), VT2.getStoreSize());
1906   Type *Ty1 = VT1.getTypeForEVT(*getContext());
1907   Type *Ty2 = VT2.getTypeForEVT(*getContext());
1908   const DataLayout &DL = getDataLayout();
1909   unsigned Align =
1910       std::max(DL.getPrefTypeAlignment(Ty1), DL.getPrefTypeAlignment(Ty2));
1911
1912   MachineFrameInfo *FrameInfo = getMachineFunction().getFrameInfo();
1913   int FrameIdx = FrameInfo->CreateStackObject(Bytes, Align, false);
1914   return getFrameIndex(FrameIdx, TLI->getPointerTy(getDataLayout()));
1915 }
1916
1917 SDValue SelectionDAG::FoldSetCC(EVT VT, SDValue N1,
1918                                 SDValue N2, ISD::CondCode Cond, SDLoc dl) {
1919   // These setcc operations always fold.
1920   switch (Cond) {
1921   default: break;
1922   case ISD::SETFALSE:
1923   case ISD::SETFALSE2: return getConstant(0, dl, VT);
1924   case ISD::SETTRUE:
1925   case ISD::SETTRUE2: {
1926     TargetLowering::BooleanContent Cnt =
1927         TLI->getBooleanContents(N1->getValueType(0));
1928     return getConstant(
1929         Cnt == TargetLowering::ZeroOrNegativeOneBooleanContent ? -1ULL : 1, dl,
1930         VT);
1931   }
1932
1933   case ISD::SETOEQ:
1934   case ISD::SETOGT:
1935   case ISD::SETOGE:
1936   case ISD::SETOLT:
1937   case ISD::SETOLE:
1938   case ISD::SETONE:
1939   case ISD::SETO:
1940   case ISD::SETUO:
1941   case ISD::SETUEQ:
1942   case ISD::SETUNE:
1943     assert(!N1.getValueType().isInteger() && "Illegal setcc for integer!");
1944     break;
1945   }
1946
1947   if (ConstantSDNode *N2C = dyn_cast<ConstantSDNode>(N2)) {
1948     const APInt &C2 = N2C->getAPIntValue();
1949     if (ConstantSDNode *N1C = dyn_cast<ConstantSDNode>(N1)) {
1950       const APInt &C1 = N1C->getAPIntValue();
1951
1952       switch (Cond) {
1953       default: llvm_unreachable("Unknown integer setcc!");
1954       case ISD::SETEQ:  return getConstant(C1 == C2, dl, VT);
1955       case ISD::SETNE:  return getConstant(C1 != C2, dl, VT);
1956       case ISD::SETULT: return getConstant(C1.ult(C2), dl, VT);
1957       case ISD::SETUGT: return getConstant(C1.ugt(C2), dl, VT);
1958       case ISD::SETULE: return getConstant(C1.ule(C2), dl, VT);
1959       case ISD::SETUGE: return getConstant(C1.uge(C2), dl, VT);
1960       case ISD::SETLT:  return getConstant(C1.slt(C2), dl, VT);
1961       case ISD::SETGT:  return getConstant(C1.sgt(C2), dl, VT);
1962       case ISD::SETLE:  return getConstant(C1.sle(C2), dl, VT);
1963       case ISD::SETGE:  return getConstant(C1.sge(C2), dl, VT);
1964       }
1965     }
1966   }
1967   if (ConstantFPSDNode *N1C = dyn_cast<ConstantFPSDNode>(N1)) {
1968     if (ConstantFPSDNode *N2C = dyn_cast<ConstantFPSDNode>(N2)) {
1969       APFloat::cmpResult R = N1C->getValueAPF().compare(N2C->getValueAPF());
1970       switch (Cond) {
1971       default: break;
1972       case ISD::SETEQ:  if (R==APFloat::cmpUnordered)
1973                           return getUNDEF(VT);
1974                         // fall through
1975       case ISD::SETOEQ: return getConstant(R==APFloat::cmpEqual, dl, VT);
1976       case ISD::SETNE:  if (R==APFloat::cmpUnordered)
1977                           return getUNDEF(VT);
1978                         // fall through
1979       case ISD::SETONE: return getConstant(R==APFloat::cmpGreaterThan ||
1980                                            R==APFloat::cmpLessThan, dl, VT);
1981       case ISD::SETLT:  if (R==APFloat::cmpUnordered)
1982                           return getUNDEF(VT);
1983                         // fall through
1984       case ISD::SETOLT: return getConstant(R==APFloat::cmpLessThan, dl, VT);
1985       case ISD::SETGT:  if (R==APFloat::cmpUnordered)
1986                           return getUNDEF(VT);
1987                         // fall through
1988       case ISD::SETOGT: return getConstant(R==APFloat::cmpGreaterThan, dl, VT);
1989       case ISD::SETLE:  if (R==APFloat::cmpUnordered)
1990                           return getUNDEF(VT);
1991                         // fall through
1992       case ISD::SETOLE: return getConstant(R==APFloat::cmpLessThan ||
1993                                            R==APFloat::cmpEqual, dl, VT);
1994       case ISD::SETGE:  if (R==APFloat::cmpUnordered)
1995                           return getUNDEF(VT);
1996                         // fall through
1997       case ISD::SETOGE: return getConstant(R==APFloat::cmpGreaterThan ||
1998                                            R==APFloat::cmpEqual, dl, VT);
1999       case ISD::SETO:   return getConstant(R!=APFloat::cmpUnordered, dl, VT);
2000       case ISD::SETUO:  return getConstant(R==APFloat::cmpUnordered, dl, VT);
2001       case ISD::SETUEQ: return getConstant(R==APFloat::cmpUnordered ||
2002                                            R==APFloat::cmpEqual, dl, VT);
2003       case ISD::SETUNE: return getConstant(R!=APFloat::cmpEqual, dl, VT);
2004       case ISD::SETULT: return getConstant(R==APFloat::cmpUnordered ||
2005                                            R==APFloat::cmpLessThan, dl, VT);
2006       case ISD::SETUGT: return getConstant(R==APFloat::cmpGreaterThan ||
2007                                            R==APFloat::cmpUnordered, dl, VT);
2008       case ISD::SETULE: return getConstant(R!=APFloat::cmpGreaterThan, dl, VT);
2009       case ISD::SETUGE: return getConstant(R!=APFloat::cmpLessThan, dl, VT);
2010       }
2011     } else {
2012       // Ensure that the constant occurs on the RHS.
2013       ISD::CondCode SwappedCond = ISD::getSetCCSwappedOperands(Cond);
2014       MVT CompVT = N1.getValueType().getSimpleVT();
2015       if (!TLI->isCondCodeLegal(SwappedCond, CompVT))
2016         return SDValue();
2017
2018       return getSetCC(dl, VT, N2, N1, SwappedCond);
2019     }
2020   }
2021
2022   // Could not fold it.
2023   return SDValue();
2024 }
2025
2026 /// SignBitIsZero - Return true if the sign bit of Op is known to be zero.  We
2027 /// use this predicate to simplify operations downstream.
2028 bool SelectionDAG::SignBitIsZero(SDValue Op, unsigned Depth) const {
2029   // This predicate is not safe for vector operations.
2030   if (Op.getValueType().isVector())
2031     return false;
2032
2033   unsigned BitWidth = Op.getValueType().getScalarType().getSizeInBits();
2034   return MaskedValueIsZero(Op, APInt::getSignBit(BitWidth), Depth);
2035 }
2036
2037 /// MaskedValueIsZero - Return true if 'V & Mask' is known to be zero.  We use
2038 /// this predicate to simplify operations downstream.  Mask is known to be zero
2039 /// for bits that V cannot have.
2040 bool SelectionDAG::MaskedValueIsZero(SDValue Op, const APInt &Mask,
2041                                      unsigned Depth) const {
2042   APInt KnownZero, KnownOne;
2043   computeKnownBits(Op, KnownZero, KnownOne, Depth);
2044   return (KnownZero & Mask) == Mask;
2045 }
2046
2047 /// Determine which bits of Op are known to be either zero or one and return
2048 /// them in the KnownZero/KnownOne bitsets.
2049 void SelectionDAG::computeKnownBits(SDValue Op, APInt &KnownZero,
2050                                     APInt &KnownOne, unsigned Depth) const {
2051   unsigned BitWidth = Op.getValueType().getScalarType().getSizeInBits();
2052
2053   KnownZero = KnownOne = APInt(BitWidth, 0);   // Don't know anything.
2054   if (Depth == 6)
2055     return;  // Limit search depth.
2056
2057   APInt KnownZero2, KnownOne2;
2058
2059   switch (Op.getOpcode()) {
2060   case ISD::Constant:
2061     // We know all of the bits for a constant!
2062     KnownOne = cast<ConstantSDNode>(Op)->getAPIntValue();
2063     KnownZero = ~KnownOne;
2064     break;
2065   case ISD::AND:
2066     // If either the LHS or the RHS are Zero, the result is zero.
2067     computeKnownBits(Op.getOperand(1), KnownZero, KnownOne, Depth+1);
2068     computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth+1);
2069
2070     // Output known-1 bits are only known if set in both the LHS & RHS.
2071     KnownOne &= KnownOne2;
2072     // Output known-0 are known to be clear if zero in either the LHS | RHS.
2073     KnownZero |= KnownZero2;
2074     break;
2075   case ISD::OR:
2076     computeKnownBits(Op.getOperand(1), KnownZero, KnownOne, Depth+1);
2077     computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth+1);
2078
2079     // Output known-0 bits are only known if clear in both the LHS & RHS.
2080     KnownZero &= KnownZero2;
2081     // Output known-1 are known to be set if set in either the LHS | RHS.
2082     KnownOne |= KnownOne2;
2083     break;
2084   case ISD::XOR: {
2085     computeKnownBits(Op.getOperand(1), KnownZero, KnownOne, Depth+1);
2086     computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth+1);
2087
2088     // Output known-0 bits are known if clear or set in both the LHS & RHS.
2089     APInt KnownZeroOut = (KnownZero & KnownZero2) | (KnownOne & KnownOne2);
2090     // Output known-1 are known to be set if set in only one of the LHS, RHS.
2091     KnownOne = (KnownZero & KnownOne2) | (KnownOne & KnownZero2);
2092     KnownZero = KnownZeroOut;
2093     break;
2094   }
2095   case ISD::MUL: {
2096     computeKnownBits(Op.getOperand(1), KnownZero, KnownOne, Depth+1);
2097     computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth+1);
2098
2099     // If low bits are zero in either operand, output low known-0 bits.
2100     // Also compute a conserative estimate for high known-0 bits.
2101     // More trickiness is possible, but this is sufficient for the
2102     // interesting case of alignment computation.
2103     KnownOne.clearAllBits();
2104     unsigned TrailZ = KnownZero.countTrailingOnes() +
2105                       KnownZero2.countTrailingOnes();
2106     unsigned LeadZ =  std::max(KnownZero.countLeadingOnes() +
2107                                KnownZero2.countLeadingOnes(),
2108                                BitWidth) - BitWidth;
2109
2110     TrailZ = std::min(TrailZ, BitWidth);
2111     LeadZ = std::min(LeadZ, BitWidth);
2112     KnownZero = APInt::getLowBitsSet(BitWidth, TrailZ) |
2113                 APInt::getHighBitsSet(BitWidth, LeadZ);
2114     break;
2115   }
2116   case ISD::UDIV: {
2117     // For the purposes of computing leading zeros we can conservatively
2118     // treat a udiv as a logical right shift by the power of 2 known to
2119     // be less than the denominator.
2120     computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth+1);
2121     unsigned LeadZ = KnownZero2.countLeadingOnes();
2122
2123     KnownOne2.clearAllBits();
2124     KnownZero2.clearAllBits();
2125     computeKnownBits(Op.getOperand(1), KnownZero2, KnownOne2, Depth+1);
2126     unsigned RHSUnknownLeadingOnes = KnownOne2.countLeadingZeros();
2127     if (RHSUnknownLeadingOnes != BitWidth)
2128       LeadZ = std::min(BitWidth,
2129                        LeadZ + BitWidth - RHSUnknownLeadingOnes - 1);
2130
2131     KnownZero = APInt::getHighBitsSet(BitWidth, LeadZ);
2132     break;
2133   }
2134   case ISD::SELECT:
2135     computeKnownBits(Op.getOperand(2), KnownZero, KnownOne, Depth+1);
2136     computeKnownBits(Op.getOperand(1), KnownZero2, KnownOne2, Depth+1);
2137
2138     // Only known if known in both the LHS and RHS.
2139     KnownOne &= KnownOne2;
2140     KnownZero &= KnownZero2;
2141     break;
2142   case ISD::SELECT_CC:
2143     computeKnownBits(Op.getOperand(3), KnownZero, KnownOne, Depth+1);
2144     computeKnownBits(Op.getOperand(2), KnownZero2, KnownOne2, Depth+1);
2145
2146     // Only known if known in both the LHS and RHS.
2147     KnownOne &= KnownOne2;
2148     KnownZero &= KnownZero2;
2149     break;
2150   case ISD::SADDO:
2151   case ISD::UADDO:
2152   case ISD::SSUBO:
2153   case ISD::USUBO:
2154   case ISD::SMULO:
2155   case ISD::UMULO:
2156     if (Op.getResNo() != 1)
2157       break;
2158     // The boolean result conforms to getBooleanContents.
2159     // If we know the result of a setcc has the top bits zero, use this info.
2160     // We know that we have an integer-based boolean since these operations
2161     // are only available for integer.
2162     if (TLI->getBooleanContents(Op.getValueType().isVector(), false) ==
2163             TargetLowering::ZeroOrOneBooleanContent &&
2164         BitWidth > 1)
2165       KnownZero |= APInt::getHighBitsSet(BitWidth, BitWidth - 1);
2166     break;
2167   case ISD::SETCC:
2168     // If we know the result of a setcc has the top bits zero, use this info.
2169     if (TLI->getBooleanContents(Op.getOperand(0).getValueType()) ==
2170             TargetLowering::ZeroOrOneBooleanContent &&
2171         BitWidth > 1)
2172       KnownZero |= APInt::getHighBitsSet(BitWidth, BitWidth - 1);
2173     break;
2174   case ISD::SHL:
2175     // (shl X, C1) & C2 == 0   iff   (X & C2 >>u C1) == 0
2176     if (ConstantSDNode *SA = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2177       unsigned ShAmt = SA->getZExtValue();
2178
2179       // If the shift count is an invalid immediate, don't do anything.
2180       if (ShAmt >= BitWidth)
2181         break;
2182
2183       computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2184       KnownZero <<= ShAmt;
2185       KnownOne  <<= ShAmt;
2186       // low bits known zero.
2187       KnownZero |= APInt::getLowBitsSet(BitWidth, ShAmt);
2188     }
2189     break;
2190   case ISD::SRL:
2191     // (ushr X, C1) & C2 == 0   iff  (-1 >> C1) & C2 == 0
2192     if (ConstantSDNode *SA = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2193       unsigned ShAmt = SA->getZExtValue();
2194
2195       // If the shift count is an invalid immediate, don't do anything.
2196       if (ShAmt >= BitWidth)
2197         break;
2198
2199       computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2200       KnownZero = KnownZero.lshr(ShAmt);
2201       KnownOne  = KnownOne.lshr(ShAmt);
2202
2203       APInt HighBits = APInt::getHighBitsSet(BitWidth, ShAmt);
2204       KnownZero |= HighBits;  // High bits known zero.
2205     }
2206     break;
2207   case ISD::SRA:
2208     if (ConstantSDNode *SA = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2209       unsigned ShAmt = SA->getZExtValue();
2210
2211       // If the shift count is an invalid immediate, don't do anything.
2212       if (ShAmt >= BitWidth)
2213         break;
2214
2215       // If any of the demanded bits are produced by the sign extension, we also
2216       // demand the input sign bit.
2217       APInt HighBits = APInt::getHighBitsSet(BitWidth, ShAmt);
2218
2219       computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2220       KnownZero = KnownZero.lshr(ShAmt);
2221       KnownOne  = KnownOne.lshr(ShAmt);
2222
2223       // Handle the sign bits.
2224       APInt SignBit = APInt::getSignBit(BitWidth);
2225       SignBit = SignBit.lshr(ShAmt);  // Adjust to where it is now in the mask.
2226
2227       if (KnownZero.intersects(SignBit)) {
2228         KnownZero |= HighBits;  // New bits are known zero.
2229       } else if (KnownOne.intersects(SignBit)) {
2230         KnownOne  |= HighBits;  // New bits are known one.
2231       }
2232     }
2233     break;
2234   case ISD::SIGN_EXTEND_INREG: {
2235     EVT EVT = cast<VTSDNode>(Op.getOperand(1))->getVT();
2236     unsigned EBits = EVT.getScalarType().getSizeInBits();
2237
2238     // Sign extension.  Compute the demanded bits in the result that are not
2239     // present in the input.
2240     APInt NewBits = APInt::getHighBitsSet(BitWidth, BitWidth - EBits);
2241
2242     APInt InSignBit = APInt::getSignBit(EBits);
2243     APInt InputDemandedBits = APInt::getLowBitsSet(BitWidth, EBits);
2244
2245     // If the sign extended bits are demanded, we know that the sign
2246     // bit is demanded.
2247     InSignBit = InSignBit.zext(BitWidth);
2248     if (NewBits.getBoolValue())
2249       InputDemandedBits |= InSignBit;
2250
2251     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2252     KnownOne &= InputDemandedBits;
2253     KnownZero &= InputDemandedBits;
2254
2255     // If the sign bit of the input is known set or clear, then we know the
2256     // top bits of the result.
2257     if (KnownZero.intersects(InSignBit)) {         // Input sign bit known clear
2258       KnownZero |= NewBits;
2259       KnownOne  &= ~NewBits;
2260     } else if (KnownOne.intersects(InSignBit)) {   // Input sign bit known set
2261       KnownOne  |= NewBits;
2262       KnownZero &= ~NewBits;
2263     } else {                              // Input sign bit unknown
2264       KnownZero &= ~NewBits;
2265       KnownOne  &= ~NewBits;
2266     }
2267     break;
2268   }
2269   case ISD::CTTZ:
2270   case ISD::CTTZ_ZERO_UNDEF:
2271   case ISD::CTLZ:
2272   case ISD::CTLZ_ZERO_UNDEF:
2273   case ISD::CTPOP: {
2274     unsigned LowBits = Log2_32(BitWidth)+1;
2275     KnownZero = APInt::getHighBitsSet(BitWidth, BitWidth - LowBits);
2276     KnownOne.clearAllBits();
2277     break;
2278   }
2279   case ISD::LOAD: {
2280     LoadSDNode *LD = cast<LoadSDNode>(Op);
2281     // If this is a ZEXTLoad and we are looking at the loaded value.
2282     if (ISD::isZEXTLoad(Op.getNode()) && Op.getResNo() == 0) {
2283       EVT VT = LD->getMemoryVT();
2284       unsigned MemBits = VT.getScalarType().getSizeInBits();
2285       KnownZero |= APInt::getHighBitsSet(BitWidth, BitWidth - MemBits);
2286     } else if (const MDNode *Ranges = LD->getRanges()) {
2287       if (LD->getExtensionType() == ISD::NON_EXTLOAD)
2288         computeKnownBitsFromRangeMetadata(*Ranges, KnownZero, KnownOne);
2289     }
2290     break;
2291   }
2292   case ISD::ZERO_EXTEND: {
2293     EVT InVT = Op.getOperand(0).getValueType();
2294     unsigned InBits = InVT.getScalarType().getSizeInBits();
2295     APInt NewBits   = APInt::getHighBitsSet(BitWidth, BitWidth - InBits);
2296     KnownZero = KnownZero.trunc(InBits);
2297     KnownOne = KnownOne.trunc(InBits);
2298     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2299     KnownZero = KnownZero.zext(BitWidth);
2300     KnownOne = KnownOne.zext(BitWidth);
2301     KnownZero |= NewBits;
2302     break;
2303   }
2304   case ISD::SIGN_EXTEND: {
2305     EVT InVT = Op.getOperand(0).getValueType();
2306     unsigned InBits = InVT.getScalarType().getSizeInBits();
2307     APInt NewBits   = APInt::getHighBitsSet(BitWidth, BitWidth - InBits);
2308
2309     KnownZero = KnownZero.trunc(InBits);
2310     KnownOne = KnownOne.trunc(InBits);
2311     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2312
2313     // Note if the sign bit is known to be zero or one.
2314     bool SignBitKnownZero = KnownZero.isNegative();
2315     bool SignBitKnownOne  = KnownOne.isNegative();
2316
2317     KnownZero = KnownZero.zext(BitWidth);
2318     KnownOne = KnownOne.zext(BitWidth);
2319
2320     // If the sign bit is known zero or one, the top bits match.
2321     if (SignBitKnownZero)
2322       KnownZero |= NewBits;
2323     else if (SignBitKnownOne)
2324       KnownOne  |= NewBits;
2325     break;
2326   }
2327   case ISD::ANY_EXTEND: {
2328     EVT InVT = Op.getOperand(0).getValueType();
2329     unsigned InBits = InVT.getScalarType().getSizeInBits();
2330     KnownZero = KnownZero.trunc(InBits);
2331     KnownOne = KnownOne.trunc(InBits);
2332     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2333     KnownZero = KnownZero.zext(BitWidth);
2334     KnownOne = KnownOne.zext(BitWidth);
2335     break;
2336   }
2337   case ISD::TRUNCATE: {
2338     EVT InVT = Op.getOperand(0).getValueType();
2339     unsigned InBits = InVT.getScalarType().getSizeInBits();
2340     KnownZero = KnownZero.zext(InBits);
2341     KnownOne = KnownOne.zext(InBits);
2342     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2343     KnownZero = KnownZero.trunc(BitWidth);
2344     KnownOne = KnownOne.trunc(BitWidth);
2345     break;
2346   }
2347   case ISD::AssertZext: {
2348     EVT VT = cast<VTSDNode>(Op.getOperand(1))->getVT();
2349     APInt InMask = APInt::getLowBitsSet(BitWidth, VT.getSizeInBits());
2350     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2351     KnownZero |= (~InMask);
2352     KnownOne  &= (~KnownZero);
2353     break;
2354   }
2355   case ISD::FGETSIGN:
2356     // All bits are zero except the low bit.
2357     KnownZero = APInt::getHighBitsSet(BitWidth, BitWidth - 1);
2358     break;
2359
2360   case ISD::SUB: {
2361     if (ConstantSDNode *CLHS = dyn_cast<ConstantSDNode>(Op.getOperand(0))) {
2362       // We know that the top bits of C-X are clear if X contains less bits
2363       // than C (i.e. no wrap-around can happen).  For example, 20-X is
2364       // positive if we can prove that X is >= 0 and < 16.
2365       if (CLHS->getAPIntValue().isNonNegative()) {
2366         unsigned NLZ = (CLHS->getAPIntValue()+1).countLeadingZeros();
2367         // NLZ can't be BitWidth with no sign bit
2368         APInt MaskV = APInt::getHighBitsSet(BitWidth, NLZ+1);
2369         computeKnownBits(Op.getOperand(1), KnownZero2, KnownOne2, Depth+1);
2370
2371         // If all of the MaskV bits are known to be zero, then we know the
2372         // output top bits are zero, because we now know that the output is
2373         // from [0-C].
2374         if ((KnownZero2 & MaskV) == MaskV) {
2375           unsigned NLZ2 = CLHS->getAPIntValue().countLeadingZeros();
2376           // Top bits known zero.
2377           KnownZero = APInt::getHighBitsSet(BitWidth, NLZ2);
2378         }
2379       }
2380     }
2381   }
2382   // fall through
2383   case ISD::ADD:
2384   case ISD::ADDE: {
2385     // Output known-0 bits are known if clear or set in both the low clear bits
2386     // common to both LHS & RHS.  For example, 8+(X<<3) is known to have the
2387     // low 3 bits clear.
2388     // Output known-0 bits are also known if the top bits of each input are
2389     // known to be clear. For example, if one input has the top 10 bits clear
2390     // and the other has the top 8 bits clear, we know the top 7 bits of the
2391     // output must be clear.
2392     computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth+1);
2393     unsigned KnownZeroHigh = KnownZero2.countLeadingOnes();
2394     unsigned KnownZeroLow = KnownZero2.countTrailingOnes();
2395
2396     computeKnownBits(Op.getOperand(1), KnownZero2, KnownOne2, Depth+1);
2397     KnownZeroHigh = std::min(KnownZeroHigh,
2398                              KnownZero2.countLeadingOnes());
2399     KnownZeroLow = std::min(KnownZeroLow,
2400                             KnownZero2.countTrailingOnes());
2401
2402     if (Op.getOpcode() == ISD::ADD) {
2403       KnownZero |= APInt::getLowBitsSet(BitWidth, KnownZeroLow);
2404       if (KnownZeroHigh > 1)
2405         KnownZero |= APInt::getHighBitsSet(BitWidth, KnownZeroHigh - 1);
2406       break;
2407     }
2408
2409     // With ADDE, a carry bit may be added in, so we can only use this
2410     // information if we know (at least) that the low two bits are clear.  We
2411     // then return to the caller that the low bit is unknown but that other bits
2412     // are known zero.
2413     if (KnownZeroLow >= 2) // ADDE
2414       KnownZero |= APInt::getBitsSet(BitWidth, 1, KnownZeroLow);
2415     break;
2416   }
2417   case ISD::SREM:
2418     if (ConstantSDNode *Rem = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2419       const APInt &RA = Rem->getAPIntValue().abs();
2420       if (RA.isPowerOf2()) {
2421         APInt LowBits = RA - 1;
2422         computeKnownBits(Op.getOperand(0), KnownZero2,KnownOne2,Depth+1);
2423
2424         // The low bits of the first operand are unchanged by the srem.
2425         KnownZero = KnownZero2 & LowBits;
2426         KnownOne = KnownOne2 & LowBits;
2427
2428         // If the first operand is non-negative or has all low bits zero, then
2429         // the upper bits are all zero.
2430         if (KnownZero2[BitWidth-1] || ((KnownZero2 & LowBits) == LowBits))
2431           KnownZero |= ~LowBits;
2432
2433         // If the first operand is negative and not all low bits are zero, then
2434         // the upper bits are all one.
2435         if (KnownOne2[BitWidth-1] && ((KnownOne2 & LowBits) != 0))
2436           KnownOne |= ~LowBits;
2437         assert((KnownZero & KnownOne) == 0&&"Bits known to be one AND zero?");
2438       }
2439     }
2440     break;
2441   case ISD::UREM: {
2442     if (ConstantSDNode *Rem = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2443       const APInt &RA = Rem->getAPIntValue();
2444       if (RA.isPowerOf2()) {
2445         APInt LowBits = (RA - 1);
2446         computeKnownBits(Op.getOperand(0), KnownZero2, KnownOne2, Depth + 1);
2447
2448         // The upper bits are all zero, the lower ones are unchanged.
2449         KnownZero = KnownZero2 | ~LowBits;
2450         KnownOne = KnownOne2 & LowBits;
2451         break;
2452       }
2453     }
2454
2455     // Since the result is less than or equal to either operand, any leading
2456     // zero bits in either operand must also exist in the result.
2457     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2458     computeKnownBits(Op.getOperand(1), KnownZero2, KnownOne2, Depth+1);
2459
2460     uint32_t Leaders = std::max(KnownZero.countLeadingOnes(),
2461                                 KnownZero2.countLeadingOnes());
2462     KnownOne.clearAllBits();
2463     KnownZero = APInt::getHighBitsSet(BitWidth, Leaders);
2464     break;
2465   }
2466   case ISD::EXTRACT_ELEMENT: {
2467     computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2468     const unsigned Index =
2469       cast<ConstantSDNode>(Op.getOperand(1))->getZExtValue();
2470     const unsigned BitWidth = Op.getValueType().getSizeInBits();
2471
2472     // Remove low part of known bits mask
2473     KnownZero = KnownZero.getHiBits(KnownZero.getBitWidth() - Index * BitWidth);
2474     KnownOne = KnownOne.getHiBits(KnownOne.getBitWidth() - Index * BitWidth);
2475
2476     // Remove high part of known bit mask
2477     KnownZero = KnownZero.trunc(BitWidth);
2478     KnownOne = KnownOne.trunc(BitWidth);
2479     break;
2480   }
2481   case ISD::SMIN:
2482   case ISD::SMAX:
2483   case ISD::UMIN:
2484   case ISD::UMAX: {
2485     APInt Op0Zero, Op0One;
2486     APInt Op1Zero, Op1One;
2487     computeKnownBits(Op.getOperand(0), Op0Zero, Op0One, Depth);
2488     computeKnownBits(Op.getOperand(1), Op1Zero, Op1One, Depth);
2489
2490     KnownZero = Op0Zero & Op1Zero;
2491     KnownOne = Op0One & Op1One;
2492     break;
2493   }
2494   case ISD::FrameIndex:
2495   case ISD::TargetFrameIndex:
2496     if (unsigned Align = InferPtrAlignment(Op)) {
2497       // The low bits are known zero if the pointer is aligned.
2498       KnownZero = APInt::getLowBitsSet(BitWidth, Log2_32(Align));
2499       break;
2500     }
2501     break;
2502
2503   default:
2504     if (Op.getOpcode() < ISD::BUILTIN_OP_END)
2505       break;
2506     // Fallthrough
2507   case ISD::INTRINSIC_WO_CHAIN:
2508   case ISD::INTRINSIC_W_CHAIN:
2509   case ISD::INTRINSIC_VOID:
2510     // Allow the target to implement this method for its nodes.
2511     TLI->computeKnownBitsForTargetNode(Op, KnownZero, KnownOne, *this, Depth);
2512     break;
2513   }
2514
2515   assert((KnownZero & KnownOne) == 0 && "Bits known to be one AND zero?");
2516 }
2517
2518 /// ComputeNumSignBits - Return the number of times the sign bit of the
2519 /// register is replicated into the other bits.  We know that at least 1 bit
2520 /// is always equal to the sign bit (itself), but other cases can give us
2521 /// information.  For example, immediately after an "SRA X, 2", we know that
2522 /// the top 3 bits are all equal to each other, so we return 3.
2523 unsigned SelectionDAG::ComputeNumSignBits(SDValue Op, unsigned Depth) const{
2524   EVT VT = Op.getValueType();
2525   assert(VT.isInteger() && "Invalid VT!");
2526   unsigned VTBits = VT.getScalarType().getSizeInBits();
2527   unsigned Tmp, Tmp2;
2528   unsigned FirstAnswer = 1;
2529
2530   if (Depth == 6)
2531     return 1;  // Limit search depth.
2532
2533   switch (Op.getOpcode()) {
2534   default: break;
2535   case ISD::AssertSext:
2536     Tmp = cast<VTSDNode>(Op.getOperand(1))->getVT().getSizeInBits();
2537     return VTBits-Tmp+1;
2538   case ISD::AssertZext:
2539     Tmp = cast<VTSDNode>(Op.getOperand(1))->getVT().getSizeInBits();
2540     return VTBits-Tmp;
2541
2542   case ISD::Constant: {
2543     const APInt &Val = cast<ConstantSDNode>(Op)->getAPIntValue();
2544     return Val.getNumSignBits();
2545   }
2546
2547   case ISD::SIGN_EXTEND:
2548     Tmp =
2549         VTBits-Op.getOperand(0).getValueType().getScalarType().getSizeInBits();
2550     return ComputeNumSignBits(Op.getOperand(0), Depth+1) + Tmp;
2551
2552   case ISD::SIGN_EXTEND_INREG:
2553     // Max of the input and what this extends.
2554     Tmp =
2555       cast<VTSDNode>(Op.getOperand(1))->getVT().getScalarType().getSizeInBits();
2556     Tmp = VTBits-Tmp+1;
2557
2558     Tmp2 = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2559     return std::max(Tmp, Tmp2);
2560
2561   case ISD::SRA:
2562     Tmp = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2563     // SRA X, C   -> adds C sign bits.
2564     if (ConstantSDNode *C = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2565       Tmp += C->getZExtValue();
2566       if (Tmp > VTBits) Tmp = VTBits;
2567     }
2568     return Tmp;
2569   case ISD::SHL:
2570     if (ConstantSDNode *C = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2571       // shl destroys sign bits.
2572       Tmp = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2573       if (C->getZExtValue() >= VTBits ||      // Bad shift.
2574           C->getZExtValue() >= Tmp) break;    // Shifted all sign bits out.
2575       return Tmp - C->getZExtValue();
2576     }
2577     break;
2578   case ISD::AND:
2579   case ISD::OR:
2580   case ISD::XOR:    // NOT is handled here.
2581     // Logical binary ops preserve the number of sign bits at the worst.
2582     Tmp = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2583     if (Tmp != 1) {
2584       Tmp2 = ComputeNumSignBits(Op.getOperand(1), Depth+1);
2585       FirstAnswer = std::min(Tmp, Tmp2);
2586       // We computed what we know about the sign bits as our first
2587       // answer. Now proceed to the generic code that uses
2588       // computeKnownBits, and pick whichever answer is better.
2589     }
2590     break;
2591
2592   case ISD::SELECT:
2593     Tmp = ComputeNumSignBits(Op.getOperand(1), Depth+1);
2594     if (Tmp == 1) return 1;  // Early out.
2595     Tmp2 = ComputeNumSignBits(Op.getOperand(2), Depth+1);
2596     return std::min(Tmp, Tmp2);
2597   case ISD::SELECT_CC:
2598     Tmp = ComputeNumSignBits(Op.getOperand(2), Depth+1);
2599     if (Tmp == 1) return 1;  // Early out.
2600     Tmp2 = ComputeNumSignBits(Op.getOperand(3), Depth+1);
2601     return std::min(Tmp, Tmp2);
2602   case ISD::SMIN:
2603   case ISD::SMAX:
2604   case ISD::UMIN:
2605   case ISD::UMAX:
2606     Tmp = ComputeNumSignBits(Op.getOperand(0), Depth + 1);
2607     if (Tmp == 1)
2608       return 1;  // Early out.
2609     Tmp2 = ComputeNumSignBits(Op.getOperand(1), Depth + 1);
2610     return std::min(Tmp, Tmp2);
2611   case ISD::SADDO:
2612   case ISD::UADDO:
2613   case ISD::SSUBO:
2614   case ISD::USUBO:
2615   case ISD::SMULO:
2616   case ISD::UMULO:
2617     if (Op.getResNo() != 1)
2618       break;
2619     // The boolean result conforms to getBooleanContents.  Fall through.
2620     // If setcc returns 0/-1, all bits are sign bits.
2621     // We know that we have an integer-based boolean since these operations
2622     // are only available for integer.
2623     if (TLI->getBooleanContents(Op.getValueType().isVector(), false) ==
2624         TargetLowering::ZeroOrNegativeOneBooleanContent)
2625       return VTBits;
2626     break;
2627   case ISD::SETCC:
2628     // If setcc returns 0/-1, all bits are sign bits.
2629     if (TLI->getBooleanContents(Op.getOperand(0).getValueType()) ==
2630         TargetLowering::ZeroOrNegativeOneBooleanContent)
2631       return VTBits;
2632     break;
2633   case ISD::ROTL:
2634   case ISD::ROTR:
2635     if (ConstantSDNode *C = dyn_cast<ConstantSDNode>(Op.getOperand(1))) {
2636       unsigned RotAmt = C->getZExtValue() & (VTBits-1);
2637
2638       // Handle rotate right by N like a rotate left by 32-N.
2639       if (Op.getOpcode() == ISD::ROTR)
2640         RotAmt = (VTBits-RotAmt) & (VTBits-1);
2641
2642       // If we aren't rotating out all of the known-in sign bits, return the
2643       // number that are left.  This handles rotl(sext(x), 1) for example.
2644       Tmp = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2645       if (Tmp > RotAmt+1) return Tmp-RotAmt;
2646     }
2647     break;
2648   case ISD::ADD:
2649     // Add can have at most one carry bit.  Thus we know that the output
2650     // is, at worst, one more bit than the inputs.
2651     Tmp = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2652     if (Tmp == 1) return 1;  // Early out.
2653
2654     // Special case decrementing a value (ADD X, -1):
2655     if (ConstantSDNode *CRHS = dyn_cast<ConstantSDNode>(Op.getOperand(1)))
2656       if (CRHS->isAllOnesValue()) {
2657         APInt KnownZero, KnownOne;
2658         computeKnownBits(Op.getOperand(0), KnownZero, KnownOne, Depth+1);
2659
2660         // If the input is known to be 0 or 1, the output is 0/-1, which is all
2661         // sign bits set.
2662         if ((KnownZero | APInt(VTBits, 1)).isAllOnesValue())
2663           return VTBits;
2664
2665         // If we are subtracting one from a positive number, there is no carry
2666         // out of the result.
2667         if (KnownZero.isNegative())
2668           return Tmp;
2669       }
2670
2671     Tmp2 = ComputeNumSignBits(Op.getOperand(1), Depth+1);
2672     if (Tmp2 == 1) return 1;
2673     return std::min(Tmp, Tmp2)-1;
2674
2675   case ISD::SUB:
2676     Tmp2 = ComputeNumSignBits(Op.getOperand(1), Depth+1);
2677     if (Tmp2 == 1) return 1;
2678
2679     // Handle NEG.
2680     if (ConstantSDNode *CLHS = dyn_cast<ConstantSDNode>(Op.getOperand(0)))
2681       if (CLHS->isNullValue()) {
2682         APInt KnownZero, KnownOne;
2683         computeKnownBits(Op.getOperand(1), KnownZero, KnownOne, Depth+1);
2684         // If the input is known to be 0 or 1, the output is 0/-1, which is all
2685         // sign bits set.
2686         if ((KnownZero | APInt(VTBits, 1)).isAllOnesValue())
2687           return VTBits;
2688
2689         // If the input is known to be positive (the sign bit is known clear),
2690         // the output of the NEG has the same number of sign bits as the input.
2691         if (KnownZero.isNegative())
2692           return Tmp2;
2693
2694         // Otherwise, we treat this like a SUB.
2695       }
2696
2697     // Sub can have at most one carry bit.  Thus we know that the output
2698     // is, at worst, one more bit than the inputs.
2699     Tmp = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2700     if (Tmp == 1) return 1;  // Early out.
2701     return std::min(Tmp, Tmp2)-1;
2702   case ISD::TRUNCATE:
2703     // FIXME: it's tricky to do anything useful for this, but it is an important
2704     // case for targets like X86.
2705     break;
2706   case ISD::EXTRACT_ELEMENT: {
2707     const int KnownSign = ComputeNumSignBits(Op.getOperand(0), Depth+1);
2708     const int BitWidth = Op.getValueType().getSizeInBits();
2709     const int Items =
2710       Op.getOperand(0).getValueType().getSizeInBits() / BitWidth;
2711
2712     // Get reverse index (starting from 1), Op1 value indexes elements from
2713     // little end. Sign starts at big end.
2714     const int rIndex = Items - 1 -
2715       cast<ConstantSDNode>(Op.getOperand(1))->getZExtValue();
2716
2717     // If the sign portion ends in our element the subtraction gives correct
2718     // result. Otherwise it gives either negative or > bitwidth result
2719     return std::max(std::min(KnownSign - rIndex * BitWidth, BitWidth), 0);
2720   }
2721   }
2722
2723   // If we are looking at the loaded value of the SDNode.
2724   if (Op.getResNo() == 0) {
2725     // Handle LOADX separately here. EXTLOAD case will fallthrough.
2726     if (LoadSDNode *LD = dyn_cast<LoadSDNode>(Op)) {
2727       unsigned ExtType = LD->getExtensionType();
2728       switch (ExtType) {
2729         default: break;
2730         case ISD::SEXTLOAD:    // '17' bits known
2731           Tmp = LD->getMemoryVT().getScalarType().getSizeInBits();
2732           return VTBits-Tmp+1;
2733         case ISD::ZEXTLOAD:    // '16' bits known
2734           Tmp = LD->getMemoryVT().getScalarType().getSizeInBits();
2735           return VTBits-Tmp;
2736       }
2737     }
2738   }
2739
2740   // Allow the target to implement this method for its nodes.
2741   if (Op.getOpcode() >= ISD::BUILTIN_OP_END ||
2742       Op.getOpcode() == ISD::INTRINSIC_WO_CHAIN ||
2743       Op.getOpcode() == ISD::INTRINSIC_W_CHAIN ||
2744       Op.getOpcode() == ISD::INTRINSIC_VOID) {
2745     unsigned NumBits = TLI->ComputeNumSignBitsForTargetNode(Op, *this, Depth);
2746     if (NumBits > 1) FirstAnswer = std::max(FirstAnswer, NumBits);
2747   }
2748
2749   // Finally, if we can prove that the top bits of the result are 0's or 1's,
2750   // use this information.
2751   APInt KnownZero, KnownOne;
2752   computeKnownBits(Op, KnownZero, KnownOne, Depth);
2753
2754   APInt Mask;
2755   if (KnownZero.isNegative()) {        // sign bit is 0
2756     Mask = KnownZero;
2757   } else if (KnownOne.isNegative()) {  // sign bit is 1;
2758     Mask = KnownOne;
2759   } else {
2760     // Nothing known.
2761     return FirstAnswer;
2762   }
2763
2764   // Okay, we know that the sign bit in Mask is set.  Use CLZ to determine
2765   // the number of identical bits in the top of the input value.
2766   Mask = ~Mask;
2767   Mask <<= Mask.getBitWidth()-VTBits;
2768   // Return # leading zeros.  We use 'min' here in case Val was zero before
2769   // shifting.  We don't want to return '64' as for an i32 "0".
2770   return std::max(FirstAnswer, std::min(VTBits, Mask.countLeadingZeros()));
2771 }
2772
2773 /// isBaseWithConstantOffset - Return true if the specified operand is an
2774 /// ISD::ADD with a ConstantSDNode on the right-hand side, or if it is an
2775 /// ISD::OR with a ConstantSDNode that is guaranteed to have the same
2776 /// semantics as an ADD.  This handles the equivalence:
2777 ///     X|Cst == X+Cst iff X&Cst = 0.
2778 bool SelectionDAG::isBaseWithConstantOffset(SDValue Op) const {
2779   if ((Op.getOpcode() != ISD::ADD && Op.getOpcode() != ISD::OR) ||
2780       !isa<ConstantSDNode>(Op.getOperand(1)))
2781     return false;
2782
2783   if (Op.getOpcode() == ISD::OR &&
2784       !MaskedValueIsZero(Op.getOperand(0),
2785                      cast<ConstantSDNode>(Op.getOperand(1))->getAPIntValue()))
2786     return false;
2787
2788   return true;
2789 }
2790
2791
2792 bool SelectionDAG::isKnownNeverNaN(SDValue Op) const {
2793   // If we're told that NaNs won't happen, assume they won't.
2794   if (getTarget().Options.NoNaNsFPMath)
2795     return true;
2796
2797   // If the value is a constant, we can obviously see if it is a NaN or not.
2798   if (const ConstantFPSDNode *C = dyn_cast<ConstantFPSDNode>(Op))
2799     return !C->getValueAPF().isNaN();
2800
2801   // TODO: Recognize more cases here.
2802
2803   return false;
2804 }
2805
2806 bool SelectionDAG::isKnownNeverZero(SDValue Op) const {
2807   // If the value is a constant, we can obviously see if it is a zero or not.
2808   if (const ConstantFPSDNode *C = dyn_cast<ConstantFPSDNode>(Op))
2809     return !C->isZero();
2810
2811   // TODO: Recognize more cases here.
2812   switch (Op.getOpcode()) {
2813   default: break;
2814   case ISD::OR:
2815     if (const ConstantSDNode *C = dyn_cast<ConstantSDNode>(Op.getOperand(1)))
2816       return !C->isNullValue();
2817     break;
2818   }
2819
2820   return false;
2821 }
2822
2823 bool SelectionDAG::isEqualTo(SDValue A, SDValue B) const {
2824   // Check the obvious case.
2825   if (A == B) return true;
2826
2827   // For for negative and positive zero.
2828   if (const ConstantFPSDNode *CA = dyn_cast<ConstantFPSDNode>(A))
2829     if (const ConstantFPSDNode *CB = dyn_cast<ConstantFPSDNode>(B))
2830       if (CA->isZero() && CB->isZero()) return true;
2831
2832   // Otherwise they may not be equal.
2833   return false;
2834 }
2835
2836 bool SelectionDAG::haveNoCommonBitsSet(SDValue A, SDValue B) const {
2837   assert(A.getValueType() == B.getValueType() &&
2838          "Values must have the same type");
2839   APInt AZero, AOne;
2840   APInt BZero, BOne;
2841   computeKnownBits(A, AZero, AOne);
2842   computeKnownBits(B, BZero, BOne);
2843   return (AZero | BZero).isAllOnesValue();
2844 }
2845
2846 /// getNode - Gets or creates the specified node.
2847 ///
2848 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT) {
2849   FoldingSetNodeID ID;
2850   AddNodeIDNode(ID, Opcode, getVTList(VT), None);
2851   void *IP = nullptr;
2852   if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
2853     return SDValue(E, 0);
2854
2855   SDNode *N = new (NodeAllocator) SDNode(Opcode, DL.getIROrder(),
2856                                          DL.getDebugLoc(), getVTList(VT));
2857   CSEMap.InsertNode(N, IP);
2858
2859   InsertNode(N);
2860   return SDValue(N, 0);
2861 }
2862
2863 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL,
2864                               EVT VT, SDValue Operand) {
2865   // Constant fold unary operations with an integer constant operand. Even
2866   // opaque constant will be folded, because the folding of unary operations
2867   // doesn't create new constants with different values. Nevertheless, the
2868   // opaque flag is preserved during folding to prevent future folding with
2869   // other constants.
2870   if (ConstantSDNode *C = dyn_cast<ConstantSDNode>(Operand)) {
2871     const APInt &Val = C->getAPIntValue();
2872     switch (Opcode) {
2873     default: break;
2874     case ISD::SIGN_EXTEND:
2875       return getConstant(Val.sextOrTrunc(VT.getSizeInBits()), DL, VT,
2876                          C->isTargetOpcode(), C->isOpaque());
2877     case ISD::ANY_EXTEND:
2878     case ISD::ZERO_EXTEND:
2879     case ISD::TRUNCATE:
2880       return getConstant(Val.zextOrTrunc(VT.getSizeInBits()), DL, VT,
2881                          C->isTargetOpcode(), C->isOpaque());
2882     case ISD::UINT_TO_FP:
2883     case ISD::SINT_TO_FP: {
2884       APFloat apf(EVTToAPFloatSemantics(VT),
2885                   APInt::getNullValue(VT.getSizeInBits()));
2886       (void)apf.convertFromAPInt(Val,
2887                                  Opcode==ISD::SINT_TO_FP,
2888                                  APFloat::rmNearestTiesToEven);
2889       return getConstantFP(apf, DL, VT);
2890     }
2891     case ISD::BITCAST:
2892       if (VT == MVT::f16 && C->getValueType(0) == MVT::i16)
2893         return getConstantFP(APFloat(APFloat::IEEEhalf, Val), DL, VT);
2894       if (VT == MVT::f32 && C->getValueType(0) == MVT::i32)
2895         return getConstantFP(APFloat(APFloat::IEEEsingle, Val), DL, VT);
2896       else if (VT == MVT::f64 && C->getValueType(0) == MVT::i64)
2897         return getConstantFP(APFloat(APFloat::IEEEdouble, Val), DL, VT);
2898       break;
2899     case ISD::BSWAP:
2900       return getConstant(Val.byteSwap(), DL, VT, C->isTargetOpcode(),
2901                          C->isOpaque());
2902     case ISD::CTPOP:
2903       return getConstant(Val.countPopulation(), DL, VT, C->isTargetOpcode(),
2904                          C->isOpaque());
2905     case ISD::CTLZ:
2906     case ISD::CTLZ_ZERO_UNDEF:
2907       return getConstant(Val.countLeadingZeros(), DL, VT, C->isTargetOpcode(),
2908                          C->isOpaque());
2909     case ISD::CTTZ:
2910     case ISD::CTTZ_ZERO_UNDEF:
2911       return getConstant(Val.countTrailingZeros(), DL, VT, C->isTargetOpcode(),
2912                          C->isOpaque());
2913     }
2914   }
2915
2916   // Constant fold unary operations with a floating point constant operand.
2917   if (ConstantFPSDNode *C = dyn_cast<ConstantFPSDNode>(Operand)) {
2918     APFloat V = C->getValueAPF();    // make copy
2919     switch (Opcode) {
2920     case ISD::FNEG:
2921       V.changeSign();
2922       return getConstantFP(V, DL, VT);
2923     case ISD::FABS:
2924       V.clearSign();
2925       return getConstantFP(V, DL, VT);
2926     case ISD::FCEIL: {
2927       APFloat::opStatus fs = V.roundToIntegral(APFloat::rmTowardPositive);
2928       if (fs == APFloat::opOK || fs == APFloat::opInexact)
2929         return getConstantFP(V, DL, VT);
2930       break;
2931     }
2932     case ISD::FTRUNC: {
2933       APFloat::opStatus fs = V.roundToIntegral(APFloat::rmTowardZero);
2934       if (fs == APFloat::opOK || fs == APFloat::opInexact)
2935         return getConstantFP(V, DL, VT);
2936       break;
2937     }
2938     case ISD::FFLOOR: {
2939       APFloat::opStatus fs = V.roundToIntegral(APFloat::rmTowardNegative);
2940       if (fs == APFloat::opOK || fs == APFloat::opInexact)
2941         return getConstantFP(V, DL, VT);
2942       break;
2943     }
2944     case ISD::FP_EXTEND: {
2945       bool ignored;
2946       // This can return overflow, underflow, or inexact; we don't care.
2947       // FIXME need to be more flexible about rounding mode.
2948       (void)V.convert(EVTToAPFloatSemantics(VT),
2949                       APFloat::rmNearestTiesToEven, &ignored);
2950       return getConstantFP(V, DL, VT);
2951     }
2952     case ISD::FP_TO_SINT:
2953     case ISD::FP_TO_UINT: {
2954       integerPart x[2];
2955       bool ignored;
2956       static_assert(integerPartWidth >= 64, "APFloat parts too small!");
2957       // FIXME need to be more flexible about rounding mode.
2958       APFloat::opStatus s = V.convertToInteger(x, VT.getSizeInBits(),
2959                             Opcode==ISD::FP_TO_SINT,
2960                             APFloat::rmTowardZero, &ignored);
2961       if (s==APFloat::opInvalidOp)     // inexact is OK, in fact usual
2962         break;
2963       APInt api(VT.getSizeInBits(), x);
2964       return getConstant(api, DL, VT);
2965     }
2966     case ISD::BITCAST:
2967       if (VT == MVT::i16 && C->getValueType(0) == MVT::f16)
2968         return getConstant((uint16_t)V.bitcastToAPInt().getZExtValue(), DL, VT);
2969       else if (VT == MVT::i32 && C->getValueType(0) == MVT::f32)
2970         return getConstant((uint32_t)V.bitcastToAPInt().getZExtValue(), DL, VT);
2971       else if (VT == MVT::i64 && C->getValueType(0) == MVT::f64)
2972         return getConstant(V.bitcastToAPInt().getZExtValue(), DL, VT);
2973       break;
2974     }
2975   }
2976
2977   // Constant fold unary operations with a vector integer or float operand.
2978   if (BuildVectorSDNode *BV = dyn_cast<BuildVectorSDNode>(Operand)) {
2979     if (BV->isConstant()) {
2980       switch (Opcode) {
2981       default:
2982         // FIXME: Entirely reasonable to perform folding of other unary
2983         // operations here as the need arises.
2984         break;
2985       case ISD::FNEG:
2986       case ISD::FABS:
2987       case ISD::FCEIL:
2988       case ISD::FTRUNC:
2989       case ISD::FFLOOR:
2990       case ISD::FP_EXTEND:
2991       case ISD::FP_TO_SINT:
2992       case ISD::FP_TO_UINT:
2993       case ISD::TRUNCATE:
2994       case ISD::UINT_TO_FP:
2995       case ISD::SINT_TO_FP:
2996       case ISD::BSWAP:
2997       case ISD::CTLZ:
2998       case ISD::CTLZ_ZERO_UNDEF:
2999       case ISD::CTTZ:
3000       case ISD::CTTZ_ZERO_UNDEF:
3001       case ISD::CTPOP: {
3002         SDValue Ops = { Operand };
3003         if (SDValue Fold = FoldConstantVectorArithmetic(Opcode, DL, VT, Ops))
3004           return Fold;
3005       }
3006       }
3007     }
3008   }
3009
3010   unsigned OpOpcode = Operand.getNode()->getOpcode();
3011   switch (Opcode) {
3012   case ISD::TokenFactor:
3013   case ISD::MERGE_VALUES:
3014   case ISD::CONCAT_VECTORS:
3015     return Operand;         // Factor, merge or concat of one node?  No need.
3016   case ISD::FP_ROUND: llvm_unreachable("Invalid method to make FP_ROUND node");
3017   case ISD::FP_EXTEND:
3018     assert(VT.isFloatingPoint() &&
3019            Operand.getValueType().isFloatingPoint() && "Invalid FP cast!");
3020     if (Operand.getValueType() == VT) return Operand;  // noop conversion.
3021     assert((!VT.isVector() ||
3022             VT.getVectorNumElements() ==
3023             Operand.getValueType().getVectorNumElements()) &&
3024            "Vector element count mismatch!");
3025     assert(Operand.getValueType().bitsLT(VT) &&
3026            "Invalid fpext node, dst < src!");
3027     if (Operand.getOpcode() == ISD::UNDEF)
3028       return getUNDEF(VT);
3029     break;
3030   case ISD::SIGN_EXTEND:
3031     assert(VT.isInteger() && Operand.getValueType().isInteger() &&
3032            "Invalid SIGN_EXTEND!");
3033     if (Operand.getValueType() == VT) return Operand;   // noop extension
3034     assert((!VT.isVector() ||
3035             VT.getVectorNumElements() ==
3036             Operand.getValueType().getVectorNumElements()) &&
3037            "Vector element count mismatch!");
3038     assert(Operand.getValueType().bitsLT(VT) &&
3039            "Invalid sext node, dst < src!");
3040     if (OpOpcode == ISD::SIGN_EXTEND || OpOpcode == ISD::ZERO_EXTEND)
3041       return getNode(OpOpcode, DL, VT, Operand.getNode()->getOperand(0));
3042     else if (OpOpcode == ISD::UNDEF)
3043       // sext(undef) = 0, because the top bits will all be the same.
3044       return getConstant(0, DL, VT);
3045     break;
3046   case ISD::ZERO_EXTEND:
3047     assert(VT.isInteger() && Operand.getValueType().isInteger() &&
3048            "Invalid ZERO_EXTEND!");
3049     if (Operand.getValueType() == VT) return Operand;   // noop extension
3050     assert((!VT.isVector() ||
3051             VT.getVectorNumElements() ==
3052             Operand.getValueType().getVectorNumElements()) &&
3053            "Vector element count mismatch!");
3054     assert(Operand.getValueType().bitsLT(VT) &&
3055            "Invalid zext node, dst < src!");
3056     if (OpOpcode == ISD::ZERO_EXTEND)   // (zext (zext x)) -> (zext x)
3057       return getNode(ISD::ZERO_EXTEND, DL, VT,
3058                      Operand.getNode()->getOperand(0));
3059     else if (OpOpcode == ISD::UNDEF)
3060       // zext(undef) = 0, because the top bits will be zero.
3061       return getConstant(0, DL, VT);
3062     break;
3063   case ISD::ANY_EXTEND:
3064     assert(VT.isInteger() && Operand.getValueType().isInteger() &&
3065            "Invalid ANY_EXTEND!");
3066     if (Operand.getValueType() == VT) return Operand;   // noop extension
3067     assert((!VT.isVector() ||
3068             VT.getVectorNumElements() ==
3069             Operand.getValueType().getVectorNumElements()) &&
3070            "Vector element count mismatch!");
3071     assert(Operand.getValueType().bitsLT(VT) &&
3072            "Invalid anyext node, dst < src!");
3073
3074     if (OpOpcode == ISD::ZERO_EXTEND || OpOpcode == ISD::SIGN_EXTEND ||
3075         OpOpcode == ISD::ANY_EXTEND)
3076       // (ext (zext x)) -> (zext x)  and  (ext (sext x)) -> (sext x)
3077       return getNode(OpOpcode, DL, VT, Operand.getNode()->getOperand(0));
3078     else if (OpOpcode == ISD::UNDEF)
3079       return getUNDEF(VT);
3080
3081     // (ext (trunx x)) -> x
3082     if (OpOpcode == ISD::TRUNCATE) {
3083       SDValue OpOp = Operand.getNode()->getOperand(0);
3084       if (OpOp.getValueType() == VT)
3085         return OpOp;
3086     }
3087     break;
3088   case ISD::TRUNCATE:
3089     assert(VT.isInteger() && Operand.getValueType().isInteger() &&
3090            "Invalid TRUNCATE!");
3091     if (Operand.getValueType() == VT) return Operand;   // noop truncate
3092     assert((!VT.isVector() ||
3093             VT.getVectorNumElements() ==
3094             Operand.getValueType().getVectorNumElements()) &&
3095            "Vector element count mismatch!");
3096     assert(Operand.getValueType().bitsGT(VT) &&
3097            "Invalid truncate node, src < dst!");
3098     if (OpOpcode == ISD::TRUNCATE)
3099       return getNode(ISD::TRUNCATE, DL, VT, Operand.getNode()->getOperand(0));
3100     if (OpOpcode == ISD::ZERO_EXTEND || OpOpcode == ISD::SIGN_EXTEND ||
3101         OpOpcode == ISD::ANY_EXTEND) {
3102       // If the source is smaller than the dest, we still need an extend.
3103       if (Operand.getNode()->getOperand(0).getValueType().getScalarType()
3104             .bitsLT(VT.getScalarType()))
3105         return getNode(OpOpcode, DL, VT, Operand.getNode()->getOperand(0));
3106       if (Operand.getNode()->getOperand(0).getValueType().bitsGT(VT))
3107         return getNode(ISD::TRUNCATE, DL, VT, Operand.getNode()->getOperand(0));
3108       return Operand.getNode()->getOperand(0);
3109     }
3110     if (OpOpcode == ISD::UNDEF)
3111       return getUNDEF(VT);
3112     break;
3113   case ISD::BSWAP:
3114     assert(VT.isInteger() && VT == Operand.getValueType() &&
3115            "Invalid BSWAP!");
3116     assert((VT.getScalarSizeInBits() % 16 == 0) &&
3117            "BSWAP types must be a multiple of 16 bits!");
3118     if (OpOpcode == ISD::UNDEF)
3119       return getUNDEF(VT);
3120     break;
3121   case ISD::BITCAST:
3122     // Basic sanity checking.
3123     assert(VT.getSizeInBits() == Operand.getValueType().getSizeInBits()
3124            && "Cannot BITCAST between types of different sizes!");
3125     if (VT == Operand.getValueType()) return Operand;  // noop conversion.
3126     if (OpOpcode == ISD::BITCAST)  // bitconv(bitconv(x)) -> bitconv(x)
3127       return getNode(ISD::BITCAST, DL, VT, Operand.getOperand(0));
3128     if (OpOpcode == ISD::UNDEF)
3129       return getUNDEF(VT);
3130     break;
3131   case ISD::SCALAR_TO_VECTOR:
3132     assert(VT.isVector() && !Operand.getValueType().isVector() &&
3133            (VT.getVectorElementType() == Operand.getValueType() ||
3134             (VT.getVectorElementType().isInteger() &&
3135              Operand.getValueType().isInteger() &&
3136              VT.getVectorElementType().bitsLE(Operand.getValueType()))) &&
3137            "Illegal SCALAR_TO_VECTOR node!");
3138     if (OpOpcode == ISD::UNDEF)
3139       return getUNDEF(VT);
3140     // scalar_to_vector(extract_vector_elt V, 0) -> V, top bits are undefined.
3141     if (OpOpcode == ISD::EXTRACT_VECTOR_ELT &&
3142         isa<ConstantSDNode>(Operand.getOperand(1)) &&
3143         Operand.getConstantOperandVal(1) == 0 &&
3144         Operand.getOperand(0).getValueType() == VT)
3145       return Operand.getOperand(0);
3146     break;
3147   case ISD::FNEG:
3148     // -(X-Y) -> (Y-X) is unsafe because when X==Y, -0.0 != +0.0
3149     if (getTarget().Options.UnsafeFPMath && OpOpcode == ISD::FSUB)
3150       // FIXME: FNEG has no fast-math-flags to propagate; use the FSUB's flags?
3151       return getNode(ISD::FSUB, DL, VT, Operand.getNode()->getOperand(1),
3152                        Operand.getNode()->getOperand(0),
3153                        &cast<BinaryWithFlagsSDNode>(Operand.getNode())->Flags);
3154     if (OpOpcode == ISD::FNEG)  // --X -> X
3155       return Operand.getNode()->getOperand(0);
3156     break;
3157   case ISD::FABS:
3158     if (OpOpcode == ISD::FNEG)  // abs(-X) -> abs(X)
3159       return getNode(ISD::FABS, DL, VT, Operand.getNode()->getOperand(0));
3160     break;
3161   }
3162
3163   SDNode *N;
3164   SDVTList VTs = getVTList(VT);
3165   if (VT != MVT::Glue) { // Don't CSE flag producing nodes
3166     FoldingSetNodeID ID;
3167     SDValue Ops[1] = { Operand };
3168     AddNodeIDNode(ID, Opcode, VTs, Ops);
3169     void *IP = nullptr;
3170     if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
3171       return SDValue(E, 0);
3172
3173     N = new (NodeAllocator) UnarySDNode(Opcode, DL.getIROrder(),
3174                                         DL.getDebugLoc(), VTs, Operand);
3175     CSEMap.InsertNode(N, IP);
3176   } else {
3177     N = new (NodeAllocator) UnarySDNode(Opcode, DL.getIROrder(),
3178                                         DL.getDebugLoc(), VTs, Operand);
3179   }
3180
3181   InsertNode(N);
3182   return SDValue(N, 0);
3183 }
3184
3185 static std::pair<APInt, bool> FoldValue(unsigned Opcode, const APInt &C1,
3186                                         const APInt &C2) {
3187   switch (Opcode) {
3188   case ISD::ADD:  return std::make_pair(C1 + C2, true);
3189   case ISD::SUB:  return std::make_pair(C1 - C2, true);
3190   case ISD::MUL:  return std::make_pair(C1 * C2, true);
3191   case ISD::AND:  return std::make_pair(C1 & C2, true);
3192   case ISD::OR:   return std::make_pair(C1 | C2, true);
3193   case ISD::XOR:  return std::make_pair(C1 ^ C2, true);
3194   case ISD::SHL:  return std::make_pair(C1 << C2, true);
3195   case ISD::SRL:  return std::make_pair(C1.lshr(C2), true);
3196   case ISD::SRA:  return std::make_pair(C1.ashr(C2), true);
3197   case ISD::ROTL: return std::make_pair(C1.rotl(C2), true);
3198   case ISD::ROTR: return std::make_pair(C1.rotr(C2), true);
3199   case ISD::SMIN: return std::make_pair(C1.sle(C2) ? C1 : C2, true);
3200   case ISD::SMAX: return std::make_pair(C1.sge(C2) ? C1 : C2, true);
3201   case ISD::UMIN: return std::make_pair(C1.ule(C2) ? C1 : C2, true);
3202   case ISD::UMAX: return std::make_pair(C1.uge(C2) ? C1 : C2, true);
3203   case ISD::UDIV:
3204     if (!C2.getBoolValue())
3205       break;
3206     return std::make_pair(C1.udiv(C2), true);
3207   case ISD::UREM:
3208     if (!C2.getBoolValue())
3209       break;
3210     return std::make_pair(C1.urem(C2), true);
3211   case ISD::SDIV:
3212     if (!C2.getBoolValue())
3213       break;
3214     return std::make_pair(C1.sdiv(C2), true);
3215   case ISD::SREM:
3216     if (!C2.getBoolValue())
3217       break;
3218     return std::make_pair(C1.srem(C2), true);
3219   }
3220   return std::make_pair(APInt(1, 0), false);
3221 }
3222
3223 SDValue SelectionDAG::FoldConstantArithmetic(unsigned Opcode, SDLoc DL, EVT VT,
3224                                              const ConstantSDNode *Cst1,
3225                                              const ConstantSDNode *Cst2) {
3226   if (Cst1->isOpaque() || Cst2->isOpaque())
3227     return SDValue();
3228
3229   std::pair<APInt, bool> Folded = FoldValue(Opcode, Cst1->getAPIntValue(),
3230                                             Cst2->getAPIntValue());
3231   if (!Folded.second)
3232     return SDValue();
3233   return getConstant(Folded.first, DL, VT);
3234 }
3235
3236 SDValue SelectionDAG::FoldConstantArithmetic(unsigned Opcode, SDLoc DL, EVT VT,
3237                                              SDNode *Cst1, SDNode *Cst2) {
3238   // If the opcode is a target-specific ISD node, there's nothing we can
3239   // do here and the operand rules may not line up with the below, so
3240   // bail early.
3241   if (Opcode >= ISD::BUILTIN_OP_END)
3242     return SDValue();
3243
3244   // Handle the case of two scalars.
3245   if (const ConstantSDNode *Scalar1 = dyn_cast<ConstantSDNode>(Cst1)) {
3246     if (const ConstantSDNode *Scalar2 = dyn_cast<ConstantSDNode>(Cst2)) {
3247       if (SDValue Folded =
3248           FoldConstantArithmetic(Opcode, DL, VT, Scalar1, Scalar2)) {
3249         if (!VT.isVector())
3250           return Folded;
3251         SmallVector<SDValue, 4> Outputs;
3252         // We may have a vector type but a scalar result. Create a splat.
3253         Outputs.resize(VT.getVectorNumElements(), Outputs.back());
3254         // Build a big vector out of the scalar elements we generated.
3255         return getNode(ISD::BUILD_VECTOR, SDLoc(), VT, Outputs);
3256       } else {
3257         return SDValue();
3258       }
3259     }
3260   }
3261
3262   // For vectors extract each constant element into Inputs so we can constant
3263   // fold them individually.
3264   BuildVectorSDNode *BV1 = dyn_cast<BuildVectorSDNode>(Cst1);
3265   BuildVectorSDNode *BV2 = dyn_cast<BuildVectorSDNode>(Cst2);
3266   if (!BV1 || !BV2)
3267     return SDValue();
3268
3269   assert(BV1->getNumOperands() == BV2->getNumOperands() && "Out of sync!");
3270
3271   EVT SVT = VT.getScalarType();
3272   SmallVector<SDValue, 4> Outputs;
3273   for (unsigned I = 0, E = BV1->getNumOperands(); I != E; ++I) {
3274     ConstantSDNode *V1 = dyn_cast<ConstantSDNode>(BV1->getOperand(I));
3275     ConstantSDNode *V2 = dyn_cast<ConstantSDNode>(BV2->getOperand(I));
3276     if (!V1 || !V2) // Not a constant, bail.
3277       return SDValue();
3278
3279     if (V1->isOpaque() || V2->isOpaque())
3280       return SDValue();
3281
3282     // Avoid BUILD_VECTOR nodes that perform implicit truncation.
3283     // FIXME: This is valid and could be handled by truncating the APInts.
3284     if (V1->getValueType(0) != SVT || V2->getValueType(0) != SVT)
3285       return SDValue();
3286
3287     // Fold one vector element.
3288     std::pair<APInt, bool> Folded = FoldValue(Opcode, V1->getAPIntValue(),
3289                                               V2->getAPIntValue());
3290     if (!Folded.second)
3291       return SDValue();
3292     Outputs.push_back(getConstant(Folded.first, DL, SVT));
3293   }
3294
3295   assert(VT.getVectorNumElements() == Outputs.size() &&
3296          "Vector size mismatch!");
3297
3298   // We may have a vector type but a scalar result. Create a splat.
3299   Outputs.resize(VT.getVectorNumElements(), Outputs.back());
3300
3301   // Build a big vector out of the scalar elements we generated.
3302   return getNode(ISD::BUILD_VECTOR, SDLoc(), VT, Outputs);
3303 }
3304
3305 SDValue SelectionDAG::FoldConstantVectorArithmetic(unsigned Opcode, SDLoc DL,
3306                                                    EVT VT,
3307                                                    ArrayRef<SDValue> Ops,
3308                                                    const SDNodeFlags *Flags) {
3309   // If the opcode is a target-specific ISD node, there's nothing we can
3310   // do here and the operand rules may not line up with the below, so
3311   // bail early.
3312   if (Opcode >= ISD::BUILTIN_OP_END)
3313     return SDValue();
3314
3315   // We can only fold vectors - maybe merge with FoldConstantArithmetic someday?
3316   if (!VT.isVector())
3317     return SDValue();
3318
3319   unsigned NumElts = VT.getVectorNumElements();
3320
3321   auto IsScalarOrSameVectorSize = [&](const SDValue &Op) {
3322     return !Op.getValueType().isVector() ||
3323            Op.getValueType().getVectorNumElements() == NumElts;
3324   };
3325
3326   auto IsConstantBuildVectorOrUndef = [&](const SDValue &Op) {
3327     BuildVectorSDNode *BV = dyn_cast<BuildVectorSDNode>(Op);
3328     return (Op.getOpcode() == ISD::UNDEF) ||
3329            (Op.getOpcode() == ISD::CONDCODE) || (BV && BV->isConstant());
3330   };
3331
3332   // All operands must be vector types with the same number of elements as
3333   // the result type and must be either UNDEF or a build vector of constant
3334   // or UNDEF scalars.
3335   if (!std::all_of(Ops.begin(), Ops.end(), IsConstantBuildVectorOrUndef) ||
3336       !std::all_of(Ops.begin(), Ops.end(), IsScalarOrSameVectorSize))
3337     return SDValue();
3338
3339   // Find legal integer scalar type for constant promotion and
3340   // ensure that its scalar size is at least as large as source.
3341   EVT SVT = VT.getScalarType();
3342   EVT LegalSVT = SVT;
3343   if (SVT.isInteger()) {
3344     LegalSVT = TLI->getTypeToTransformTo(*getContext(), SVT);
3345     if (LegalSVT.bitsLT(SVT))
3346       return SDValue();
3347   }
3348
3349   // Constant fold each scalar lane separately.
3350   SmallVector<SDValue, 4> ScalarResults;
3351   for (unsigned i = 0; i != NumElts; i++) {
3352     SmallVector<SDValue, 4> ScalarOps;
3353     for (SDValue Op : Ops) {
3354       EVT InSVT = Op.getValueType().getScalarType();
3355       BuildVectorSDNode *InBV = dyn_cast<BuildVectorSDNode>(Op);
3356       if (!InBV) {
3357         // We've checked that this is UNDEF or a constant of some kind.
3358         if (Op.isUndef())
3359           ScalarOps.push_back(getUNDEF(InSVT));
3360         else
3361           ScalarOps.push_back(Op);
3362         continue;
3363       }
3364
3365       SDValue ScalarOp = InBV->getOperand(i);
3366       EVT ScalarVT = ScalarOp.getValueType();
3367
3368       // Build vector (integer) scalar operands may need implicit
3369       // truncation - do this before constant folding.
3370       if (ScalarVT.isInteger() && ScalarVT.bitsGT(InSVT))
3371         ScalarOp = getNode(ISD::TRUNCATE, DL, InSVT, ScalarOp);
3372
3373       ScalarOps.push_back(ScalarOp);
3374     }
3375
3376     // Constant fold the scalar operands.
3377     SDValue ScalarResult = getNode(Opcode, DL, SVT, ScalarOps, Flags);
3378
3379     // Legalize the (integer) scalar constant if necessary.
3380     if (LegalSVT != SVT)
3381       ScalarResult = getNode(ISD::ANY_EXTEND, DL, LegalSVT, ScalarResult);
3382
3383     // Scalar folding only succeeded if the result is a constant or UNDEF.
3384     if (ScalarResult.getOpcode() != ISD::UNDEF &&
3385         ScalarResult.getOpcode() != ISD::Constant &&
3386         ScalarResult.getOpcode() != ISD::ConstantFP)
3387       return SDValue();
3388     ScalarResults.push_back(ScalarResult);
3389   }
3390
3391   assert(ScalarResults.size() == NumElts &&
3392          "Unexpected number of scalar results for BUILD_VECTOR");
3393   return getNode(ISD::BUILD_VECTOR, DL, VT, ScalarResults);
3394 }
3395
3396 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT, SDValue N1,
3397                               SDValue N2, const SDNodeFlags *Flags) {
3398   ConstantSDNode *N1C = dyn_cast<ConstantSDNode>(N1);
3399   ConstantSDNode *N2C = dyn_cast<ConstantSDNode>(N2);
3400   ConstantFPSDNode *N1CFP = dyn_cast<ConstantFPSDNode>(N1);
3401   ConstantFPSDNode *N2CFP = dyn_cast<ConstantFPSDNode>(N2);
3402
3403   // Canonicalize constant to RHS if commutative.
3404   if (isCommutativeBinOp(Opcode)) {
3405     if (N1C && !N2C) {
3406       std::swap(N1C, N2C);
3407       std::swap(N1, N2);
3408     } else if (N1CFP && !N2CFP) {
3409       std::swap(N1CFP, N2CFP);
3410       std::swap(N1, N2);
3411     }
3412   }
3413
3414   switch (Opcode) {
3415   default: break;
3416   case ISD::TokenFactor:
3417     assert(VT == MVT::Other && N1.getValueType() == MVT::Other &&
3418            N2.getValueType() == MVT::Other && "Invalid token factor!");
3419     // Fold trivial token factors.
3420     if (N1.getOpcode() == ISD::EntryToken) return N2;
3421     if (N2.getOpcode() == ISD::EntryToken) return N1;
3422     if (N1 == N2) return N1;
3423     break;
3424   case ISD::CONCAT_VECTORS:
3425     // Concat of UNDEFs is UNDEF.
3426     if (N1.getOpcode() == ISD::UNDEF &&
3427         N2.getOpcode() == ISD::UNDEF)
3428       return getUNDEF(VT);
3429
3430     // A CONCAT_VECTOR with all operands BUILD_VECTOR can be simplified to
3431     // one big BUILD_VECTOR.
3432     if (N1.getOpcode() == ISD::BUILD_VECTOR &&
3433         N2.getOpcode() == ISD::BUILD_VECTOR) {
3434       SmallVector<SDValue, 16> Elts(N1.getNode()->op_begin(),
3435                                     N1.getNode()->op_end());
3436       Elts.append(N2.getNode()->op_begin(), N2.getNode()->op_end());
3437
3438       // BUILD_VECTOR requires all inputs to be of the same type, find the
3439       // maximum type and extend them all.
3440       EVT SVT = VT.getScalarType();
3441       for (SDValue Op : Elts)
3442         SVT = (SVT.bitsLT(Op.getValueType()) ? Op.getValueType() : SVT);
3443       if (SVT.bitsGT(VT.getScalarType()))
3444         for (SDValue &Op : Elts)
3445           Op = TLI->isZExtFree(Op.getValueType(), SVT)
3446              ? getZExtOrTrunc(Op, DL, SVT)
3447              : getSExtOrTrunc(Op, DL, SVT);
3448
3449       return getNode(ISD::BUILD_VECTOR, DL, VT, Elts);
3450     }
3451     break;
3452   case ISD::AND:
3453     assert(VT.isInteger() && "This operator does not apply to FP types!");
3454     assert(N1.getValueType() == N2.getValueType() &&
3455            N1.getValueType() == VT && "Binary operator types must match!");
3456     // (X & 0) -> 0.  This commonly occurs when legalizing i64 values, so it's
3457     // worth handling here.
3458     if (N2C && N2C->isNullValue())
3459       return N2;
3460     if (N2C && N2C->isAllOnesValue())  // X & -1 -> X
3461       return N1;
3462     break;
3463   case ISD::OR:
3464   case ISD::XOR:
3465   case ISD::ADD:
3466   case ISD::SUB:
3467     assert(VT.isInteger() && "This operator does not apply to FP types!");
3468     assert(N1.getValueType() == N2.getValueType() &&
3469            N1.getValueType() == VT && "Binary operator types must match!");
3470     // (X ^|+- 0) -> X.  This commonly occurs when legalizing i64 values, so
3471     // it's worth handling here.
3472     if (N2C && N2C->isNullValue())
3473       return N1;
3474     break;
3475   case ISD::UDIV:
3476   case ISD::UREM:
3477   case ISD::MULHU:
3478   case ISD::MULHS:
3479   case ISD::MUL:
3480   case ISD::SDIV:
3481   case ISD::SREM:
3482   case ISD::SMIN:
3483   case ISD::SMAX:
3484   case ISD::UMIN:
3485   case ISD::UMAX:
3486     assert(VT.isInteger() && "This operator does not apply to FP types!");
3487     assert(N1.getValueType() == N2.getValueType() &&
3488            N1.getValueType() == VT && "Binary operator types must match!");
3489     break;
3490   case ISD::FADD:
3491   case ISD::FSUB:
3492   case ISD::FMUL:
3493   case ISD::FDIV:
3494   case ISD::FREM:
3495     if (getTarget().Options.UnsafeFPMath) {
3496       if (Opcode == ISD::FADD) {
3497         // x+0 --> x
3498         if (N2CFP && N2CFP->getValueAPF().isZero())
3499           return N1;
3500       } else if (Opcode == ISD::FSUB) {
3501         // x-0 --> x
3502         if (N2CFP && N2CFP->getValueAPF().isZero())
3503           return N1;
3504       } else if (Opcode == ISD::FMUL) {
3505         // x*0 --> 0
3506         if (N2CFP && N2CFP->isZero())
3507           return N2;
3508         // x*1 --> x
3509         if (N2CFP && N2CFP->isExactlyValue(1.0))
3510           return N1;
3511       }
3512     }
3513     assert(VT.isFloatingPoint() && "This operator only applies to FP types!");
3514     assert(N1.getValueType() == N2.getValueType() &&
3515            N1.getValueType() == VT && "Binary operator types must match!");
3516     break;
3517   case ISD::FCOPYSIGN:   // N1 and result must match.  N1/N2 need not match.
3518     assert(N1.getValueType() == VT &&
3519            N1.getValueType().isFloatingPoint() &&
3520            N2.getValueType().isFloatingPoint() &&
3521            "Invalid FCOPYSIGN!");
3522     break;
3523   case ISD::SHL:
3524   case ISD::SRA:
3525   case ISD::SRL:
3526   case ISD::ROTL:
3527   case ISD::ROTR:
3528     assert(VT == N1.getValueType() &&
3529            "Shift operators return type must be the same as their first arg");
3530     assert(VT.isInteger() && N2.getValueType().isInteger() &&
3531            "Shifts only work on integers");
3532     assert((!VT.isVector() || VT == N2.getValueType()) &&
3533            "Vector shift amounts must be in the same as their first arg");
3534     // Verify that the shift amount VT is bit enough to hold valid shift
3535     // amounts.  This catches things like trying to shift an i1024 value by an
3536     // i8, which is easy to fall into in generic code that uses
3537     // TLI.getShiftAmount().
3538     assert(N2.getValueType().getSizeInBits() >=
3539                    Log2_32_Ceil(N1.getValueType().getSizeInBits()) &&
3540            "Invalid use of small shift amount with oversized value!");
3541
3542     // Always fold shifts of i1 values so the code generator doesn't need to
3543     // handle them.  Since we know the size of the shift has to be less than the
3544     // size of the value, the shift/rotate count is guaranteed to be zero.
3545     if (VT == MVT::i1)
3546       return N1;
3547     if (N2C && N2C->isNullValue())
3548       return N1;
3549     break;
3550   case ISD::FP_ROUND_INREG: {
3551     EVT EVT = cast<VTSDNode>(N2)->getVT();
3552     assert(VT == N1.getValueType() && "Not an inreg round!");
3553     assert(VT.isFloatingPoint() && EVT.isFloatingPoint() &&
3554            "Cannot FP_ROUND_INREG integer types");
3555     assert(EVT.isVector() == VT.isVector() &&
3556            "FP_ROUND_INREG type should be vector iff the operand "
3557            "type is vector!");
3558     assert((!EVT.isVector() ||
3559             EVT.getVectorNumElements() == VT.getVectorNumElements()) &&
3560            "Vector element counts must match in FP_ROUND_INREG");
3561     assert(EVT.bitsLE(VT) && "Not rounding down!");
3562     (void)EVT;
3563     if (cast<VTSDNode>(N2)->getVT() == VT) return N1;  // Not actually rounding.
3564     break;
3565   }
3566   case ISD::FP_ROUND:
3567     assert(VT.isFloatingPoint() &&
3568            N1.getValueType().isFloatingPoint() &&
3569            VT.bitsLE(N1.getValueType()) &&
3570            N2C && "Invalid FP_ROUND!");
3571     if (N1.getValueType() == VT) return N1;  // noop conversion.
3572     break;
3573   case ISD::AssertSext:
3574   case ISD::AssertZext: {
3575     EVT EVT = cast<VTSDNode>(N2)->getVT();
3576     assert(VT == N1.getValueType() && "Not an inreg extend!");
3577     assert(VT.isInteger() && EVT.isInteger() &&
3578            "Cannot *_EXTEND_INREG FP types");
3579     assert(!EVT.isVector() &&
3580            "AssertSExt/AssertZExt type should be the vector element type "
3581            "rather than the vector type!");
3582     assert(EVT.bitsLE(VT) && "Not extending!");
3583     if (VT == EVT) return N1; // noop assertion.
3584     break;
3585   }
3586   case ISD::SIGN_EXTEND_INREG: {
3587     EVT EVT = cast<VTSDNode>(N2)->getVT();
3588     assert(VT == N1.getValueType() && "Not an inreg extend!");
3589     assert(VT.isInteger() && EVT.isInteger() &&
3590            "Cannot *_EXTEND_INREG FP types");
3591     assert(EVT.isVector() == VT.isVector() &&
3592            "SIGN_EXTEND_INREG type should be vector iff the operand "
3593            "type is vector!");
3594     assert((!EVT.isVector() ||
3595             EVT.getVectorNumElements() == VT.getVectorNumElements()) &&
3596            "Vector element counts must match in SIGN_EXTEND_INREG");
3597     assert(EVT.bitsLE(VT) && "Not extending!");
3598     if (EVT == VT) return N1;  // Not actually extending
3599
3600     auto SignExtendInReg = [&](APInt Val) {
3601       unsigned FromBits = EVT.getScalarType().getSizeInBits();
3602       Val <<= Val.getBitWidth() - FromBits;
3603       Val = Val.ashr(Val.getBitWidth() - FromBits);
3604       return getConstant(Val, DL, VT.getScalarType());
3605     };
3606
3607     if (N1C) {
3608       APInt Val = N1C->getAPIntValue();
3609       return SignExtendInReg(Val);
3610     }
3611     if (ISD::isBuildVectorOfConstantSDNodes(N1.getNode())) {
3612       SmallVector<SDValue, 8> Ops;
3613       for (int i = 0, e = VT.getVectorNumElements(); i != e; ++i) {
3614         SDValue Op = N1.getOperand(i);
3615         if (Op.getOpcode() == ISD::UNDEF) {
3616           Ops.push_back(getUNDEF(VT.getScalarType()));
3617           continue;
3618         }
3619         if (ConstantSDNode *C = dyn_cast<ConstantSDNode>(Op)) {
3620           APInt Val = C->getAPIntValue();
3621           Val = Val.zextOrTrunc(VT.getScalarSizeInBits());
3622           Ops.push_back(SignExtendInReg(Val));
3623           continue;
3624         }
3625         break;
3626       }
3627       if (Ops.size() == VT.getVectorNumElements())
3628         return getNode(ISD::BUILD_VECTOR, DL, VT, Ops);
3629     }
3630     break;
3631   }
3632   case ISD::EXTRACT_VECTOR_ELT:
3633     // EXTRACT_VECTOR_ELT of an UNDEF is an UNDEF.
3634     if (N1.getOpcode() == ISD::UNDEF)
3635       return getUNDEF(VT);
3636
3637     // EXTRACT_VECTOR_ELT of out-of-bounds element is an UNDEF
3638     if (N2C && N2C->getZExtValue() >= N1.getValueType().getVectorNumElements())
3639       return getUNDEF(VT);
3640
3641     // EXTRACT_VECTOR_ELT of CONCAT_VECTORS is often formed while lowering is
3642     // expanding copies of large vectors from registers.
3643     if (N2C &&
3644         N1.getOpcode() == ISD::CONCAT_VECTORS &&
3645         N1.getNumOperands() > 0) {
3646       unsigned Factor =
3647         N1.getOperand(0).getValueType().getVectorNumElements();
3648       return getNode(ISD::EXTRACT_VECTOR_ELT, DL, VT,
3649                      N1.getOperand(N2C->getZExtValue() / Factor),
3650                      getConstant(N2C->getZExtValue() % Factor, DL,
3651                                  N2.getValueType()));
3652     }
3653
3654     // EXTRACT_VECTOR_ELT of BUILD_VECTOR is often formed while lowering is
3655     // expanding large vector constants.
3656     if (N2C && N1.getOpcode() == ISD::BUILD_VECTOR) {
3657       SDValue Elt = N1.getOperand(N2C->getZExtValue());
3658
3659       if (VT != Elt.getValueType())
3660         // If the vector element type is not legal, the BUILD_VECTOR operands
3661         // are promoted and implicitly truncated, and the result implicitly
3662         // extended. Make that explicit here.
3663         Elt = getAnyExtOrTrunc(Elt, DL, VT);
3664
3665       return Elt;
3666     }
3667
3668     // EXTRACT_VECTOR_ELT of INSERT_VECTOR_ELT is often formed when vector
3669     // operations are lowered to scalars.
3670     if (N1.getOpcode() == ISD::INSERT_VECTOR_ELT) {
3671       // If the indices are the same, return the inserted element else
3672       // if the indices are known different, extract the element from
3673       // the original vector.
3674       SDValue N1Op2 = N1.getOperand(2);
3675       ConstantSDNode *N1Op2C = dyn_cast<ConstantSDNode>(N1Op2);
3676
3677       if (N1Op2C && N2C) {
3678         if (N1Op2C->getZExtValue() == N2C->getZExtValue()) {
3679           if (VT == N1.getOperand(1).getValueType())
3680             return N1.getOperand(1);
3681           else
3682             return getSExtOrTrunc(N1.getOperand(1), DL, VT);
3683         }
3684
3685         return getNode(ISD::EXTRACT_VECTOR_ELT, DL, VT, N1.getOperand(0), N2);
3686       }
3687     }
3688     break;
3689   case ISD::EXTRACT_ELEMENT:
3690     assert(N2C && (unsigned)N2C->getZExtValue() < 2 && "Bad EXTRACT_ELEMENT!");
3691     assert(!N1.getValueType().isVector() && !VT.isVector() &&
3692            (N1.getValueType().isInteger() == VT.isInteger()) &&
3693            N1.getValueType() != VT &&
3694            "Wrong types for EXTRACT_ELEMENT!");
3695
3696     // EXTRACT_ELEMENT of BUILD_PAIR is often formed while legalize is expanding
3697     // 64-bit integers into 32-bit parts.  Instead of building the extract of
3698     // the BUILD_PAIR, only to have legalize rip it apart, just do it now.
3699     if (N1.getOpcode() == ISD::BUILD_PAIR)
3700       return N1.getOperand(N2C->getZExtValue());
3701
3702     // EXTRACT_ELEMENT of a constant int is also very common.
3703     if (N1C) {
3704       unsigned ElementSize = VT.getSizeInBits();
3705       unsigned Shift = ElementSize * N2C->getZExtValue();
3706       APInt ShiftedVal = N1C->getAPIntValue().lshr(Shift);
3707       return getConstant(ShiftedVal.trunc(ElementSize), DL, VT);
3708     }
3709     break;
3710   case ISD::EXTRACT_SUBVECTOR:
3711     if (VT.isSimple() && N1.getValueType().isSimple()) {
3712       assert(VT.isVector() && N1.getValueType().isVector() &&
3713              "Extract subvector VTs must be a vectors!");
3714       assert(VT.getVectorElementType() ==
3715              N1.getValueType().getVectorElementType() &&
3716              "Extract subvector VTs must have the same element type!");
3717       assert(VT.getSimpleVT() <= N1.getSimpleValueType() &&
3718              "Extract subvector must be from larger vector to smaller vector!");
3719
3720       if (N2C) {
3721         assert((VT.getVectorNumElements() + N2C->getZExtValue()
3722                 <= N1.getValueType().getVectorNumElements())
3723                && "Extract subvector overflow!");
3724       }
3725
3726       // Trivial extraction.
3727       if (VT.getSimpleVT() == N1.getSimpleValueType())
3728         return N1;
3729     }
3730     break;
3731   }
3732
3733   // Perform trivial constant folding.
3734   if (SDValue SV =
3735           FoldConstantArithmetic(Opcode, DL, VT, N1.getNode(), N2.getNode()))
3736     return SV;
3737
3738   // Constant fold FP operations.
3739   bool HasFPExceptions = TLI->hasFloatingPointExceptions();
3740   if (N1CFP) {
3741     if (N2CFP) {
3742       APFloat V1 = N1CFP->getValueAPF(), V2 = N2CFP->getValueAPF();
3743       APFloat::opStatus s;
3744       switch (Opcode) {
3745       case ISD::FADD:
3746         s = V1.add(V2, APFloat::rmNearestTiesToEven);
3747         if (!HasFPExceptions || s != APFloat::opInvalidOp)
3748           return getConstantFP(V1, DL, VT);
3749         break;
3750       case ISD::FSUB:
3751         s = V1.subtract(V2, APFloat::rmNearestTiesToEven);
3752         if (!HasFPExceptions || s!=APFloat::opInvalidOp)
3753           return getConstantFP(V1, DL, VT);
3754         break;
3755       case ISD::FMUL:
3756         s = V1.multiply(V2, APFloat::rmNearestTiesToEven);
3757         if (!HasFPExceptions || s!=APFloat::opInvalidOp)
3758           return getConstantFP(V1, DL, VT);
3759         break;
3760       case ISD::FDIV:
3761         s = V1.divide(V2, APFloat::rmNearestTiesToEven);
3762         if (!HasFPExceptions || (s!=APFloat::opInvalidOp &&
3763                                  s!=APFloat::opDivByZero)) {
3764           return getConstantFP(V1, DL, VT);
3765         }
3766         break;
3767       case ISD::FREM :
3768         s = V1.mod(V2);
3769         if (!HasFPExceptions || (s!=APFloat::opInvalidOp &&
3770                                  s!=APFloat::opDivByZero)) {
3771           return getConstantFP(V1, DL, VT);
3772         }
3773         break;
3774       case ISD::FCOPYSIGN:
3775         V1.copySign(V2);
3776         return getConstantFP(V1, DL, VT);
3777       default: break;
3778       }
3779     }
3780
3781     if (Opcode == ISD::FP_ROUND) {
3782       APFloat V = N1CFP->getValueAPF();    // make copy
3783       bool ignored;
3784       // This can return overflow, underflow, or inexact; we don't care.
3785       // FIXME need to be more flexible about rounding mode.
3786       (void)V.convert(EVTToAPFloatSemantics(VT),
3787                       APFloat::rmNearestTiesToEven, &ignored);
3788       return getConstantFP(V, DL, VT);
3789     }
3790   }
3791
3792   // Canonicalize an UNDEF to the RHS, even over a constant.
3793   if (N1.getOpcode() == ISD::UNDEF) {
3794     if (isCommutativeBinOp(Opcode)) {
3795       std::swap(N1, N2);
3796     } else {
3797       switch (Opcode) {
3798       case ISD::FP_ROUND_INREG:
3799       case ISD::SIGN_EXTEND_INREG:
3800       case ISD::SUB:
3801       case ISD::FSUB:
3802       case ISD::FDIV:
3803       case ISD::FREM:
3804       case ISD::SRA:
3805         return N1;     // fold op(undef, arg2) -> undef
3806       case ISD::UDIV:
3807       case ISD::SDIV:
3808       case ISD::UREM:
3809       case ISD::SREM:
3810       case ISD::SRL:
3811       case ISD::SHL:
3812         if (!VT.isVector())
3813           return getConstant(0, DL, VT);    // fold op(undef, arg2) -> 0
3814         // For vectors, we can't easily build an all zero vector, just return
3815         // the LHS.
3816         return N2;
3817       }
3818     }
3819   }
3820
3821   // Fold a bunch of operators when the RHS is undef.
3822   if (N2.getOpcode() == ISD::UNDEF) {
3823     switch (Opcode) {
3824     case ISD::XOR:
3825       if (N1.getOpcode() == ISD::UNDEF)
3826         // Handle undef ^ undef -> 0 special case. This is a common
3827         // idiom (misuse).
3828         return getConstant(0, DL, VT);
3829       // fallthrough
3830     case ISD::ADD:
3831     case ISD::ADDC:
3832     case ISD::ADDE:
3833     case ISD::SUB:
3834     case ISD::UDIV:
3835     case ISD::SDIV:
3836     case ISD::UREM:
3837     case ISD::SREM:
3838       return N2;       // fold op(arg1, undef) -> undef
3839     case ISD::FADD:
3840     case ISD::FSUB:
3841     case ISD::FMUL:
3842     case ISD::FDIV:
3843     case ISD::FREM:
3844       if (getTarget().Options.UnsafeFPMath)
3845         return N2;
3846       break;
3847     case ISD::MUL:
3848     case ISD::AND:
3849     case ISD::SRL:
3850     case ISD::SHL:
3851       if (!VT.isVector())
3852         return getConstant(0, DL, VT);  // fold op(arg1, undef) -> 0
3853       // For vectors, we can't easily build an all zero vector, just return
3854       // the LHS.
3855       return N1;
3856     case ISD::OR:
3857       if (!VT.isVector())
3858         return getConstant(APInt::getAllOnesValue(VT.getSizeInBits()), DL, VT);
3859       // For vectors, we can't easily build an all one vector, just return
3860       // the LHS.
3861       return N1;
3862     case ISD::SRA:
3863       return N1;
3864     }
3865   }
3866
3867   // Memoize this node if possible.
3868   BinarySDNode *N;
3869   SDVTList VTs = getVTList(VT);
3870   if (VT != MVT::Glue) {
3871     SDValue Ops[] = {N1, N2};
3872     FoldingSetNodeID ID;
3873     AddNodeIDNode(ID, Opcode, VTs, Ops);
3874     AddNodeIDFlags(ID, Opcode, Flags);
3875     void *IP = nullptr;
3876     if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
3877       return SDValue(E, 0);
3878
3879     N = GetBinarySDNode(Opcode, DL, VTs, N1, N2, Flags);
3880
3881     CSEMap.InsertNode(N, IP);
3882   } else {
3883     N = GetBinarySDNode(Opcode, DL, VTs, N1, N2, Flags);
3884   }
3885
3886   InsertNode(N);
3887   return SDValue(N, 0);
3888 }
3889
3890 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT,
3891                               SDValue N1, SDValue N2, SDValue N3) {
3892   // Perform various simplifications.
3893   switch (Opcode) {
3894   case ISD::FMA: {
3895     ConstantFPSDNode *N1CFP = dyn_cast<ConstantFPSDNode>(N1);
3896     ConstantFPSDNode *N2CFP = dyn_cast<ConstantFPSDNode>(N2);
3897     ConstantFPSDNode *N3CFP = dyn_cast<ConstantFPSDNode>(N3);
3898     if (N1CFP && N2CFP && N3CFP) {
3899       APFloat  V1 = N1CFP->getValueAPF();
3900       const APFloat &V2 = N2CFP->getValueAPF();
3901       const APFloat &V3 = N3CFP->getValueAPF();
3902       APFloat::opStatus s =
3903         V1.fusedMultiplyAdd(V2, V3, APFloat::rmNearestTiesToEven);
3904       if (!TLI->hasFloatingPointExceptions() || s != APFloat::opInvalidOp)
3905         return getConstantFP(V1, DL, VT);
3906     }
3907     break;
3908   }
3909   case ISD::CONCAT_VECTORS:
3910     // A CONCAT_VECTOR with all operands BUILD_VECTOR can be simplified to
3911     // one big BUILD_VECTOR.
3912     if (N1.getOpcode() == ISD::BUILD_VECTOR &&
3913         N2.getOpcode() == ISD::BUILD_VECTOR &&
3914         N3.getOpcode() == ISD::BUILD_VECTOR) {
3915       SmallVector<SDValue, 16> Elts(N1.getNode()->op_begin(),
3916                                     N1.getNode()->op_end());
3917       Elts.append(N2.getNode()->op_begin(), N2.getNode()->op_end());
3918       Elts.append(N3.getNode()->op_begin(), N3.getNode()->op_end());
3919       return getNode(ISD::BUILD_VECTOR, DL, VT, Elts);
3920     }
3921     break;
3922   case ISD::SETCC: {
3923     // Use FoldSetCC to simplify SETCC's.
3924     if (SDValue V = FoldSetCC(VT, N1, N2, cast<CondCodeSDNode>(N3)->get(), DL))
3925       return V;
3926     // Vector constant folding.
3927     SDValue Ops[] = {N1, N2, N3};
3928     if (SDValue V = FoldConstantVectorArithmetic(Opcode, DL, VT, Ops))
3929       return V;
3930     break;
3931   }
3932   case ISD::SELECT:
3933     if (ConstantSDNode *N1C = dyn_cast<ConstantSDNode>(N1)) {
3934      if (N1C->getZExtValue())
3935        return N2;             // select true, X, Y -> X
3936      return N3;             // select false, X, Y -> Y
3937     }
3938
3939     if (N2 == N3) return N2;   // select C, X, X -> X
3940     break;
3941   case ISD::VECTOR_SHUFFLE:
3942     llvm_unreachable("should use getVectorShuffle constructor!");
3943   case ISD::INSERT_SUBVECTOR: {
3944     SDValue Index = N3;
3945     if (VT.isSimple() && N1.getValueType().isSimple()
3946         && N2.getValueType().isSimple()) {
3947       assert(VT.isVector() && N1.getValueType().isVector() &&
3948              N2.getValueType().isVector() &&
3949              "Insert subvector VTs must be a vectors");
3950       assert(VT == N1.getValueType() &&
3951              "Dest and insert subvector source types must match!");
3952       assert(N2.getSimpleValueType() <= N1.getSimpleValueType() &&
3953              "Insert subvector must be from smaller vector to larger vector!");
3954       if (isa<ConstantSDNode>(Index)) {
3955         assert((N2.getValueType().getVectorNumElements() +
3956                 cast<ConstantSDNode>(Index)->getZExtValue()
3957                 <= VT.getVectorNumElements())
3958                && "Insert subvector overflow!");
3959       }
3960
3961       // Trivial insertion.
3962       if (VT.getSimpleVT() == N2.getSimpleValueType())
3963         return N2;
3964     }
3965     break;
3966   }
3967   case ISD::BITCAST:
3968     // Fold bit_convert nodes from a type to themselves.
3969     if (N1.getValueType() == VT)
3970       return N1;
3971     break;
3972   }
3973
3974   // Memoize node if it doesn't produce a flag.
3975   SDNode *N;
3976   SDVTList VTs = getVTList(VT);
3977   if (VT != MVT::Glue) {
3978     SDValue Ops[] = { N1, N2, N3 };
3979     FoldingSetNodeID ID;
3980     AddNodeIDNode(ID, Opcode, VTs, Ops);
3981     void *IP = nullptr;
3982     if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
3983       return SDValue(E, 0);
3984
3985     N = new (NodeAllocator) TernarySDNode(Opcode, DL.getIROrder(),
3986                                           DL.getDebugLoc(), VTs, N1, N2, N3);
3987     CSEMap.InsertNode(N, IP);
3988   } else {
3989     N = new (NodeAllocator) TernarySDNode(Opcode, DL.getIROrder(),
3990                                           DL.getDebugLoc(), VTs, N1, N2, N3);
3991   }
3992
3993   InsertNode(N);
3994   return SDValue(N, 0);
3995 }
3996
3997 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT,
3998                               SDValue N1, SDValue N2, SDValue N3,
3999                               SDValue N4) {
4000   SDValue Ops[] = { N1, N2, N3, N4 };
4001   return getNode(Opcode, DL, VT, Ops);
4002 }
4003
4004 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT,
4005                               SDValue N1, SDValue N2, SDValue N3,
4006                               SDValue N4, SDValue N5) {
4007   SDValue Ops[] = { N1, N2, N3, N4, N5 };
4008   return getNode(Opcode, DL, VT, Ops);
4009 }
4010
4011 /// getStackArgumentTokenFactor - Compute a TokenFactor to force all
4012 /// the incoming stack arguments to be loaded from the stack.
4013 SDValue SelectionDAG::getStackArgumentTokenFactor(SDValue Chain) {
4014   SmallVector<SDValue, 8> ArgChains;
4015
4016   // Include the original chain at the beginning of the list. When this is
4017   // used by target LowerCall hooks, this helps legalize find the
4018   // CALLSEQ_BEGIN node.
4019   ArgChains.push_back(Chain);
4020
4021   // Add a chain value for each stack argument.
4022   for (SDNode::use_iterator U = getEntryNode().getNode()->use_begin(),
4023        UE = getEntryNode().getNode()->use_end(); U != UE; ++U)
4024     if (LoadSDNode *L = dyn_cast<LoadSDNode>(*U))
4025       if (FrameIndexSDNode *FI = dyn_cast<FrameIndexSDNode>(L->getBasePtr()))
4026         if (FI->getIndex() < 0)
4027           ArgChains.push_back(SDValue(L, 1));
4028
4029   // Build a tokenfactor for all the chains.
4030   return getNode(ISD::TokenFactor, SDLoc(Chain), MVT::Other, ArgChains);
4031 }
4032
4033 /// getMemsetValue - Vectorized representation of the memset value
4034 /// operand.
4035 static SDValue getMemsetValue(SDValue Value, EVT VT, SelectionDAG &DAG,
4036                               SDLoc dl) {
4037   assert(Value.getOpcode() != ISD::UNDEF);
4038
4039   unsigned NumBits = VT.getScalarType().getSizeInBits();
4040   if (ConstantSDNode *C = dyn_cast<ConstantSDNode>(Value)) {
4041     assert(C->getAPIntValue().getBitWidth() == 8);
4042     APInt Val = APInt::getSplat(NumBits, C->getAPIntValue());
4043     if (VT.isInteger())
4044       return DAG.getConstant(Val, dl, VT);
4045     return DAG.getConstantFP(APFloat(DAG.EVTToAPFloatSemantics(VT), Val), dl,
4046                              VT);
4047   }
4048
4049   assert(Value.getValueType() == MVT::i8 && "memset with non-byte fill value?");
4050   EVT IntVT = VT.getScalarType();
4051   if (!IntVT.isInteger())
4052     IntVT = EVT::getIntegerVT(*DAG.getContext(), IntVT.getSizeInBits());
4053
4054   Value = DAG.getNode(ISD::ZERO_EXTEND, dl, IntVT, Value);
4055   if (NumBits > 8) {
4056     // Use a multiplication with 0x010101... to extend the input to the
4057     // required length.
4058     APInt Magic = APInt::getSplat(NumBits, APInt(8, 0x01));
4059     Value = DAG.getNode(ISD::MUL, dl, IntVT, Value,
4060                         DAG.getConstant(Magic, dl, IntVT));
4061   }
4062
4063   if (VT != Value.getValueType() && !VT.isInteger())
4064     Value = DAG.getNode(ISD::BITCAST, dl, VT.getScalarType(), Value);
4065   if (VT != Value.getValueType()) {
4066     assert(VT.getVectorElementType() == Value.getValueType() &&
4067            "value type should be one vector element here");
4068     SmallVector<SDValue, 8> BVOps(VT.getVectorNumElements(), Value);
4069     Value = DAG.getNode(ISD::BUILD_VECTOR, dl, VT, BVOps);
4070   }
4071
4072   return Value;
4073 }
4074
4075 /// getMemsetStringVal - Similar to getMemsetValue. Except this is only
4076 /// used when a memcpy is turned into a memset when the source is a constant
4077 /// string ptr.
4078 static SDValue getMemsetStringVal(EVT VT, SDLoc dl, SelectionDAG &DAG,
4079                                   const TargetLowering &TLI, StringRef Str) {
4080   // Handle vector with all elements zero.
4081   if (Str.empty()) {
4082     if (VT.isInteger())
4083       return DAG.getConstant(0, dl, VT);
4084     else if (VT == MVT::f32 || VT == MVT::f64 || VT == MVT::f128)
4085       return DAG.getConstantFP(0.0, dl, VT);
4086     else if (VT.isVector()) {
4087       unsigned NumElts = VT.getVectorNumElements();
4088       MVT EltVT = (VT.getVectorElementType() == MVT::f32) ? MVT::i32 : MVT::i64;
4089       return DAG.getNode(ISD::BITCAST, dl, VT,
4090                          DAG.getConstant(0, dl,
4091                                          EVT::getVectorVT(*DAG.getContext(),
4092                                                           EltVT, NumElts)));
4093     } else
4094       llvm_unreachable("Expected type!");
4095   }
4096
4097   assert(!VT.isVector() && "Can't handle vector type here!");
4098   unsigned NumVTBits = VT.getSizeInBits();
4099   unsigned NumVTBytes = NumVTBits / 8;
4100   unsigned NumBytes = std::min(NumVTBytes, unsigned(Str.size()));
4101
4102   APInt Val(NumVTBits, 0);
4103   if (DAG.getDataLayout().isLittleEndian()) {
4104     for (unsigned i = 0; i != NumBytes; ++i)
4105       Val |= (uint64_t)(unsigned char)Str[i] << i*8;
4106   } else {
4107     for (unsigned i = 0; i != NumBytes; ++i)
4108       Val |= (uint64_t)(unsigned char)Str[i] << (NumVTBytes-i-1)*8;
4109   }
4110
4111   // If the "cost" of materializing the integer immediate is less than the cost
4112   // of a load, then it is cost effective to turn the load into the immediate.
4113   Type *Ty = VT.getTypeForEVT(*DAG.getContext());
4114   if (TLI.shouldConvertConstantLoadToIntImm(Val, Ty))
4115     return DAG.getConstant(Val, dl, VT);
4116   return SDValue(nullptr, 0);
4117 }
4118
4119 /// getMemBasePlusOffset - Returns base and offset node for the
4120 ///
4121 static SDValue getMemBasePlusOffset(SDValue Base, unsigned Offset, SDLoc dl,
4122                                       SelectionDAG &DAG) {
4123   EVT VT = Base.getValueType();
4124   return DAG.getNode(ISD::ADD, dl,
4125                      VT, Base, DAG.getConstant(Offset, dl, VT));
4126 }
4127
4128 /// isMemSrcFromString - Returns true if memcpy source is a string constant.
4129 ///
4130 static bool isMemSrcFromString(SDValue Src, StringRef &Str) {
4131   unsigned SrcDelta = 0;
4132   GlobalAddressSDNode *G = nullptr;
4133   if (Src.getOpcode() == ISD::GlobalAddress)
4134     G = cast<GlobalAddressSDNode>(Src);
4135   else if (Src.getOpcode() == ISD::ADD &&
4136            Src.getOperand(0).getOpcode() == ISD::GlobalAddress &&
4137            Src.getOperand(1).getOpcode() == ISD::Constant) {
4138     G = cast<GlobalAddressSDNode>(Src.getOperand(0));
4139     SrcDelta = cast<ConstantSDNode>(Src.getOperand(1))->getZExtValue();
4140   }
4141   if (!G)
4142     return false;
4143
4144   return getConstantStringInfo(G->getGlobal(), Str, SrcDelta, false);
4145 }
4146
4147 /// Determines the optimal series of memory ops to replace the memset / memcpy.
4148 /// Return true if the number of memory ops is below the threshold (Limit).
4149 /// It returns the types of the sequence of memory ops to perform
4150 /// memset / memcpy by reference.
4151 static bool FindOptimalMemOpLowering(std::vector<EVT> &MemOps,
4152                                      unsigned Limit, uint64_t Size,
4153                                      unsigned DstAlign, unsigned SrcAlign,
4154                                      bool IsMemset,
4155                                      bool ZeroMemset,
4156                                      bool MemcpyStrSrc,
4157                                      bool AllowOverlap,
4158                                      SelectionDAG &DAG,
4159                                      const TargetLowering &TLI) {
4160   assert((SrcAlign == 0 || SrcAlign >= DstAlign) &&
4161          "Expecting memcpy / memset source to meet alignment requirement!");
4162   // If 'SrcAlign' is zero, that means the memory operation does not need to
4163   // load the value, i.e. memset or memcpy from constant string. Otherwise,
4164   // it's the inferred alignment of the source. 'DstAlign', on the other hand,
4165   // is the specified alignment of the memory operation. If it is zero, that
4166   // means it's possible to change the alignment of the destination.
4167   // 'MemcpyStrSrc' indicates whether the memcpy source is constant so it does
4168   // not need to be loaded.
4169   EVT VT = TLI.getOptimalMemOpType(Size, DstAlign, SrcAlign,
4170                                    IsMemset, ZeroMemset, MemcpyStrSrc,
4171                                    DAG.getMachineFunction());
4172
4173   if (VT == MVT::Other) {
4174     unsigned AS = 0;
4175     if (DstAlign >= DAG.getDataLayout().getPointerPrefAlignment(AS) ||
4176         TLI.allowsMisalignedMemoryAccesses(VT, AS, DstAlign)) {
4177       VT = TLI.getPointerTy(DAG.getDataLayout());
4178     } else {
4179       switch (DstAlign & 7) {
4180       case 0:  VT = MVT::i64; break;
4181       case 4:  VT = MVT::i32; break;
4182       case 2:  VT = MVT::i16; break;
4183       default: VT = MVT::i8;  break;
4184       }
4185     }
4186
4187     MVT LVT = MVT::i64;
4188     while (!TLI.isTypeLegal(LVT))
4189       LVT = (MVT::SimpleValueType)(LVT.SimpleTy - 1);
4190     assert(LVT.isInteger());
4191
4192     if (VT.bitsGT(LVT))
4193       VT = LVT;
4194   }
4195
4196   unsigned NumMemOps = 0;
4197   while (Size != 0) {
4198     unsigned VTSize = VT.getSizeInBits() / 8;
4199     while (VTSize > Size) {
4200       // For now, only use non-vector load / store's for the left-over pieces.
4201       EVT NewVT = VT;
4202       unsigned NewVTSize;
4203
4204       bool Found = false;
4205       if (VT.isVector() || VT.isFloatingPoint()) {
4206         NewVT = (VT.getSizeInBits() > 64) ? MVT::i64 : MVT::i32;
4207         if (TLI.isOperationLegalOrCustom(ISD::STORE, NewVT) &&
4208             TLI.isSafeMemOpType(NewVT.getSimpleVT()))
4209           Found = true;
4210         else if (NewVT == MVT::i64 &&
4211                  TLI.isOperationLegalOrCustom(ISD::STORE, MVT::f64) &&
4212                  TLI.isSafeMemOpType(MVT::f64)) {
4213           // i64 is usually not legal on 32-bit targets, but f64 may be.
4214           NewVT = MVT::f64;
4215           Found = true;
4216         }
4217       }
4218
4219       if (!Found) {
4220         do {
4221           NewVT = (MVT::SimpleValueType)(NewVT.getSimpleVT().SimpleTy - 1);
4222           if (NewVT == MVT::i8)
4223             break;
4224         } while (!TLI.isSafeMemOpType(NewVT.getSimpleVT()));
4225       }
4226       NewVTSize = NewVT.getSizeInBits() / 8;
4227
4228       // If the new VT cannot cover all of the remaining bits, then consider
4229       // issuing a (or a pair of) unaligned and overlapping load / store.
4230       // FIXME: Only does this for 64-bit or more since we don't have proper
4231       // cost model for unaligned load / store.
4232       bool Fast;
4233       unsigned AS = 0;
4234       if (NumMemOps && AllowOverlap &&
4235           VTSize >= 8 && NewVTSize < Size &&
4236           TLI.allowsMisalignedMemoryAccesses(VT, AS, DstAlign, &Fast) && Fast)
4237         VTSize = Size;
4238       else {
4239         VT = NewVT;
4240         VTSize = NewVTSize;
4241       }
4242     }
4243
4244     if (++NumMemOps > Limit)
4245       return false;
4246
4247     MemOps.push_back(VT);
4248     Size -= VTSize;
4249   }
4250
4251   return true;
4252 }
4253
4254 static bool shouldLowerMemFuncForSize(const MachineFunction &MF) {
4255   // On Darwin, -Os means optimize for size without hurting performance, so
4256   // only really optimize for size when -Oz (MinSize) is used.
4257   if (MF.getTarget().getTargetTriple().isOSDarwin())
4258     return MF.getFunction()->optForMinSize();
4259   return MF.getFunction()->optForSize();
4260 }
4261
4262 static SDValue getMemcpyLoadsAndStores(SelectionDAG &DAG, SDLoc dl,
4263                                        SDValue Chain, SDValue Dst,
4264                                        SDValue Src, uint64_t Size,
4265                                        unsigned Align, bool isVol,
4266                                        bool AlwaysInline,
4267                                        MachinePointerInfo DstPtrInfo,
4268                                        MachinePointerInfo SrcPtrInfo) {
4269   // Turn a memcpy of undef to nop.
4270   if (Src.getOpcode() == ISD::UNDEF)
4271     return Chain;
4272
4273   // Expand memcpy to a series of load and store ops if the size operand falls
4274   // below a certain threshold.
4275   // TODO: In the AlwaysInline case, if the size is big then generate a loop
4276   // rather than maybe a humongous number of loads and stores.
4277   const TargetLowering &TLI = DAG.getTargetLoweringInfo();
4278   std::vector<EVT> MemOps;
4279   bool DstAlignCanChange = false;
4280   MachineFunction &MF = DAG.getMachineFunction();
4281   MachineFrameInfo *MFI = MF.getFrameInfo();
4282   bool OptSize = shouldLowerMemFuncForSize(MF);
4283   FrameIndexSDNode *FI = dyn_cast<FrameIndexSDNode>(Dst);
4284   if (FI && !MFI->isFixedObjectIndex(FI->getIndex()))
4285     DstAlignCanChange = true;
4286   unsigned SrcAlign = DAG.InferPtrAlignment(Src);
4287   if (Align > SrcAlign)
4288     SrcAlign = Align;
4289   StringRef Str;
4290   bool CopyFromStr = isMemSrcFromString(Src, Str);
4291   bool isZeroStr = CopyFromStr && Str.empty();
4292   unsigned Limit = AlwaysInline ? ~0U : TLI.getMaxStoresPerMemcpy(OptSize);
4293
4294   if (!FindOptimalMemOpLowering(MemOps, Limit, Size,
4295                                 (DstAlignCanChange ? 0 : Align),
4296                                 (isZeroStr ? 0 : SrcAlign),
4297                                 false, false, CopyFromStr, true, DAG, TLI))
4298     return SDValue();
4299
4300   if (DstAlignCanChange) {
4301     Type *Ty = MemOps[0].getTypeForEVT(*DAG.getContext());
4302     unsigned NewAlign = (unsigned)DAG.getDataLayout().getABITypeAlignment(Ty);
4303
4304     // Don't promote to an alignment that would require dynamic stack
4305     // realignment.
4306     const TargetRegisterInfo *TRI = MF.getSubtarget().getRegisterInfo();
4307     if (!TRI->needsStackRealignment(MF))
4308       while (NewAlign > Align &&
4309              DAG.getDataLayout().exceedsNaturalStackAlignment(NewAlign))
4310           NewAlign /= 2;
4311
4312     if (NewAlign > Align) {
4313       // Give the stack frame object a larger alignment if needed.
4314       if (MFI->getObjectAlignment(FI->getIndex()) < NewAlign)
4315         MFI->setObjectAlignment(FI->getIndex(), NewAlign);
4316       Align = NewAlign;
4317     }
4318   }
4319
4320   SmallVector<SDValue, 8> OutChains;
4321   unsigned NumMemOps = MemOps.size();
4322   uint64_t SrcOff = 0, DstOff = 0;
4323   for (unsigned i = 0; i != NumMemOps; ++i) {
4324     EVT VT = MemOps[i];
4325     unsigned VTSize = VT.getSizeInBits() / 8;
4326     SDValue Value, Store;
4327
4328     if (VTSize > Size) {
4329       // Issuing an unaligned load / store pair  that overlaps with the previous
4330       // pair. Adjust the offset accordingly.
4331       assert(i == NumMemOps-1 && i != 0);
4332       SrcOff -= VTSize - Size;
4333       DstOff -= VTSize - Size;
4334     }
4335
4336     if (CopyFromStr &&
4337         (isZeroStr || (VT.isInteger() && !VT.isVector()))) {
4338       // It's unlikely a store of a vector immediate can be done in a single
4339       // instruction. It would require a load from a constantpool first.
4340       // We only handle zero vectors here.
4341       // FIXME: Handle other cases where store of vector immediate is done in
4342       // a single instruction.
4343       Value = getMemsetStringVal(VT, dl, DAG, TLI, Str.substr(SrcOff));
4344       if (Value.getNode())
4345         Store = DAG.getStore(Chain, dl, Value,
4346                              getMemBasePlusOffset(Dst, DstOff, dl, DAG),
4347                              DstPtrInfo.getWithOffset(DstOff), isVol,
4348                              false, Align);
4349     }
4350
4351     if (!Store.getNode()) {
4352       // The type might not be legal for the target.  This should only happen
4353       // if the type is smaller than a legal type, as on PPC, so the right
4354       // thing to do is generate a LoadExt/StoreTrunc pair.  These simplify
4355       // to Load/Store if NVT==VT.
4356       // FIXME does the case above also need this?
4357       EVT NVT = TLI.getTypeToTransformTo(*DAG.getContext(), VT);
4358       assert(NVT.bitsGE(VT));
4359       Value = DAG.getExtLoad(ISD::EXTLOAD, dl, NVT, Chain,
4360                              getMemBasePlusOffset(Src, SrcOff, dl, DAG),
4361                              SrcPtrInfo.getWithOffset(SrcOff), VT, isVol, false,
4362                              false, MinAlign(SrcAlign, SrcOff));
4363       Store = DAG.getTruncStore(Chain, dl, Value,
4364                                 getMemBasePlusOffset(Dst, DstOff, dl, DAG),
4365                                 DstPtrInfo.getWithOffset(DstOff), VT, isVol,
4366                                 false, Align);
4367     }
4368     OutChains.push_back(Store);
4369     SrcOff += VTSize;
4370     DstOff += VTSize;
4371     Size -= VTSize;
4372   }
4373
4374   return DAG.getNode(ISD::TokenFactor, dl, MVT::Other, OutChains);
4375 }
4376
4377 static SDValue getMemmoveLoadsAndStores(SelectionDAG &DAG, SDLoc dl,
4378                                         SDValue Chain, SDValue Dst,
4379                                         SDValue Src, uint64_t Size,
4380                                         unsigned Align,  bool isVol,
4381                                         bool AlwaysInline,
4382                                         MachinePointerInfo DstPtrInfo,
4383                                         MachinePointerInfo SrcPtrInfo) {
4384   // Turn a memmove of undef to nop.
4385   if (Src.getOpcode() == ISD::UNDEF)
4386     return Chain;
4387
4388   // Expand memmove to a series of load and store ops if the size operand falls
4389   // below a certain threshold.
4390   const TargetLowering &TLI = DAG.getTargetLoweringInfo();
4391   std::vector<EVT> MemOps;
4392   bool DstAlignCanChange = false;
4393   MachineFunction &MF = DAG.getMachineFunction();
4394   MachineFrameInfo *MFI = MF.getFrameInfo();
4395   bool OptSize = shouldLowerMemFuncForSize(MF);
4396   FrameIndexSDNode *FI = dyn_cast<FrameIndexSDNode>(Dst);
4397   if (FI && !MFI->isFixedObjectIndex(FI->getIndex()))
4398     DstAlignCanChange = true;
4399   unsigned SrcAlign = DAG.InferPtrAlignment(Src);
4400   if (Align > SrcAlign)
4401     SrcAlign = Align;
4402   unsigned Limit = AlwaysInline ? ~0U : TLI.getMaxStoresPerMemmove(OptSize);
4403
4404   if (!FindOptimalMemOpLowering(MemOps, Limit, Size,
4405                                 (DstAlignCanChange ? 0 : Align), SrcAlign,
4406                                 false, false, false, false, DAG, TLI))
4407     return SDValue();
4408
4409   if (DstAlignCanChange) {
4410     Type *Ty = MemOps[0].getTypeForEVT(*DAG.getContext());
4411     unsigned NewAlign = (unsigned)DAG.getDataLayout().getABITypeAlignment(Ty);
4412     if (NewAlign > Align) {
4413       // Give the stack frame object a larger alignment if needed.
4414       if (MFI->getObjectAlignment(FI->getIndex()) < NewAlign)
4415         MFI->setObjectAlignment(FI->getIndex(), NewAlign);
4416       Align = NewAlign;
4417     }
4418   }
4419
4420   uint64_t SrcOff = 0, DstOff = 0;
4421   SmallVector<SDValue, 8> LoadValues;
4422   SmallVector<SDValue, 8> LoadChains;
4423   SmallVector<SDValue, 8> OutChains;
4424   unsigned NumMemOps = MemOps.size();
4425   for (unsigned i = 0; i < NumMemOps; i++) {
4426     EVT VT = MemOps[i];
4427     unsigned VTSize = VT.getSizeInBits() / 8;
4428     SDValue Value;
4429
4430     Value = DAG.getLoad(VT, dl, Chain,
4431                         getMemBasePlusOffset(Src, SrcOff, dl, DAG),
4432                         SrcPtrInfo.getWithOffset(SrcOff), isVol,
4433                         false, false, SrcAlign);
4434     LoadValues.push_back(Value);
4435     LoadChains.push_back(Value.getValue(1));
4436     SrcOff += VTSize;
4437   }
4438   Chain = DAG.getNode(ISD::TokenFactor, dl, MVT::Other, LoadChains);
4439   OutChains.clear();
4440   for (unsigned i = 0; i < NumMemOps; i++) {
4441     EVT VT = MemOps[i];
4442     unsigned VTSize = VT.getSizeInBits() / 8;
4443     SDValue Store;
4444
4445     Store = DAG.getStore(Chain, dl, LoadValues[i],
4446                          getMemBasePlusOffset(Dst, DstOff, dl, DAG),
4447                          DstPtrInfo.getWithOffset(DstOff), isVol, false, Align);
4448     OutChains.push_back(Store);
4449     DstOff += VTSize;
4450   }
4451
4452   return DAG.getNode(ISD::TokenFactor, dl, MVT::Other, OutChains);
4453 }
4454
4455 /// \brief Lower the call to 'memset' intrinsic function into a series of store
4456 /// operations.
4457 ///
4458 /// \param DAG Selection DAG where lowered code is placed.
4459 /// \param dl Link to corresponding IR location.
4460 /// \param Chain Control flow dependency.
4461 /// \param Dst Pointer to destination memory location.
4462 /// \param Src Value of byte to write into the memory.
4463 /// \param Size Number of bytes to write.
4464 /// \param Align Alignment of the destination in bytes.
4465 /// \param isVol True if destination is volatile.
4466 /// \param DstPtrInfo IR information on the memory pointer.
4467 /// \returns New head in the control flow, if lowering was successful, empty
4468 /// SDValue otherwise.
4469 ///
4470 /// The function tries to replace 'llvm.memset' intrinsic with several store
4471 /// operations and value calculation code. This is usually profitable for small
4472 /// memory size.
4473 static SDValue getMemsetStores(SelectionDAG &DAG, SDLoc dl,
4474                                SDValue Chain, SDValue Dst,
4475                                SDValue Src, uint64_t Size,
4476                                unsigned Align, bool isVol,
4477                                MachinePointerInfo DstPtrInfo) {
4478   // Turn a memset of undef to nop.
4479   if (Src.getOpcode() == ISD::UNDEF)
4480     return Chain;
4481
4482   // Expand memset to a series of load/store ops if the size operand
4483   // falls below a certain threshold.
4484   const TargetLowering &TLI = DAG.getTargetLoweringInfo();
4485   std::vector<EVT> MemOps;
4486   bool DstAlignCanChange = false;
4487   MachineFunction &MF = DAG.getMachineFunction();
4488   MachineFrameInfo *MFI = MF.getFrameInfo();
4489   bool OptSize = shouldLowerMemFuncForSize(MF);
4490   FrameIndexSDNode *FI = dyn_cast<FrameIndexSDNode>(Dst);
4491   if (FI && !MFI->isFixedObjectIndex(FI->getIndex()))
4492     DstAlignCanChange = true;
4493   bool IsZeroVal =
4494     isa<ConstantSDNode>(Src) && cast<ConstantSDNode>(Src)->isNullValue();
4495   if (!FindOptimalMemOpLowering(MemOps, TLI.getMaxStoresPerMemset(OptSize),
4496                                 Size, (DstAlignCanChange ? 0 : Align), 0,
4497                                 true, IsZeroVal, false, true, DAG, TLI))
4498     return SDValue();
4499
4500   if (DstAlignCanChange) {
4501     Type *Ty = MemOps[0].getTypeForEVT(*DAG.getContext());
4502     unsigned NewAlign = (unsigned)DAG.getDataLayout().getABITypeAlignment(Ty);
4503     if (NewAlign > Align) {
4504       // Give the stack frame object a larger alignment if needed.
4505       if (MFI->getObjectAlignment(FI->getIndex()) < NewAlign)
4506         MFI->setObjectAlignment(FI->getIndex(), NewAlign);
4507       Align = NewAlign;
4508     }
4509   }
4510
4511   SmallVector<SDValue, 8> OutChains;
4512   uint64_t DstOff = 0;
4513   unsigned NumMemOps = MemOps.size();
4514
4515   // Find the largest store and generate the bit pattern for it.
4516   EVT LargestVT = MemOps[0];
4517   for (unsigned i = 1; i < NumMemOps; i++)
4518     if (MemOps[i].bitsGT(LargestVT))
4519       LargestVT = MemOps[i];
4520   SDValue MemSetValue = getMemsetValue(Src, LargestVT, DAG, dl);
4521
4522   for (unsigned i = 0; i < NumMemOps; i++) {
4523     EVT VT = MemOps[i];
4524     unsigned VTSize = VT.getSizeInBits() / 8;
4525     if (VTSize > Size) {
4526       // Issuing an unaligned load / store pair  that overlaps with the previous
4527       // pair. Adjust the offset accordingly.
4528       assert(i == NumMemOps-1 && i != 0);
4529       DstOff -= VTSize - Size;
4530     }
4531
4532     // If this store is smaller than the largest store see whether we can get
4533     // the smaller value for free with a truncate.
4534     SDValue Value = MemSetValue;
4535     if (VT.bitsLT(LargestVT)) {
4536       if (!LargestVT.isVector() && !VT.isVector() &&
4537           TLI.isTruncateFree(LargestVT, VT))
4538         Value = DAG.getNode(ISD::TRUNCATE, dl, VT, MemSetValue);
4539       else
4540         Value = getMemsetValue(Src, VT, DAG, dl);
4541     }
4542     assert(Value.getValueType() == VT && "Value with wrong type.");
4543     SDValue Store = DAG.getStore(Chain, dl, Value,
4544                                  getMemBasePlusOffset(Dst, DstOff, dl, DAG),
4545                                  DstPtrInfo.getWithOffset(DstOff),
4546                                  isVol, false, Align);
4547     OutChains.push_back(Store);
4548     DstOff += VT.getSizeInBits() / 8;
4549     Size -= VTSize;
4550   }
4551
4552   return DAG.getNode(ISD::TokenFactor, dl, MVT::Other, OutChains);
4553 }
4554
4555 SDValue SelectionDAG::getMemcpy(SDValue Chain, SDLoc dl, SDValue Dst,
4556                                 SDValue Src, SDValue Size,
4557                                 unsigned Align, bool isVol, bool AlwaysInline,
4558                                 bool isTailCall, MachinePointerInfo DstPtrInfo,
4559                                 MachinePointerInfo SrcPtrInfo) {
4560   assert(Align && "The SDAG layer expects explicit alignment and reserves 0");
4561
4562   // Check to see if we should lower the memcpy to loads and stores first.
4563   // For cases within the target-specified limits, this is the best choice.
4564   ConstantSDNode *ConstantSize = dyn_cast<ConstantSDNode>(Size);
4565   if (ConstantSize) {
4566     // Memcpy with size zero? Just return the original chain.
4567     if (ConstantSize->isNullValue())
4568       return Chain;
4569
4570     SDValue Result = getMemcpyLoadsAndStores(*this, dl, Chain, Dst, Src,
4571                                              ConstantSize->getZExtValue(),Align,
4572                                 isVol, false, DstPtrInfo, SrcPtrInfo);
4573     if (Result.getNode())
4574       return Result;
4575   }
4576
4577   // Then check to see if we should lower the memcpy with target-specific
4578   // code. If the target chooses to do this, this is the next best.
4579   if (TSI) {
4580     SDValue Result = TSI->EmitTargetCodeForMemcpy(
4581         *this, dl, Chain, Dst, Src, Size, Align, isVol, AlwaysInline,
4582         DstPtrInfo, SrcPtrInfo);
4583     if (Result.getNode())
4584       return Result;
4585   }
4586
4587   // If we really need inline code and the target declined to provide it,
4588   // use a (potentially long) sequence of loads and stores.
4589   if (AlwaysInline) {
4590     assert(ConstantSize && "AlwaysInline requires a constant size!");
4591     return getMemcpyLoadsAndStores(*this, dl, Chain, Dst, Src,
4592                                    ConstantSize->getZExtValue(), Align, isVol,
4593                                    true, DstPtrInfo, SrcPtrInfo);
4594   }
4595
4596   // FIXME: If the memcpy is volatile (isVol), lowering it to a plain libc
4597   // memcpy is not guaranteed to be safe. libc memcpys aren't required to
4598   // respect volatile, so they may do things like read or write memory
4599   // beyond the given memory regions. But fixing this isn't easy, and most
4600   // people don't care.
4601
4602   // Emit a library call.
4603   TargetLowering::ArgListTy Args;
4604   TargetLowering::ArgListEntry Entry;
4605   Entry.Ty = getDataLayout().getIntPtrType(*getContext());
4606   Entry.Node = Dst; Args.push_back(Entry);
4607   Entry.Node = Src; Args.push_back(Entry);
4608   Entry.Node = Size; Args.push_back(Entry);
4609   // FIXME: pass in SDLoc
4610   TargetLowering::CallLoweringInfo CLI(*this);
4611   CLI.setDebugLoc(dl)
4612       .setChain(Chain)
4613       .setCallee(TLI->getLibcallCallingConv(RTLIB::MEMCPY),
4614                  Type::getVoidTy(*getContext()),
4615                  getExternalSymbol(TLI->getLibcallName(RTLIB::MEMCPY),
4616                                    TLI->getPointerTy(getDataLayout())),
4617                  std::move(Args), 0)
4618       .setDiscardResult()
4619       .setTailCall(isTailCall);
4620
4621   std::pair<SDValue,SDValue> CallResult = TLI->LowerCallTo(CLI);
4622   return CallResult.second;
4623 }
4624
4625 SDValue SelectionDAG::getMemmove(SDValue Chain, SDLoc dl, SDValue Dst,
4626                                  SDValue Src, SDValue Size,
4627                                  unsigned Align, bool isVol, bool isTailCall,
4628                                  MachinePointerInfo DstPtrInfo,
4629                                  MachinePointerInfo SrcPtrInfo) {
4630   assert(Align && "The SDAG layer expects explicit alignment and reserves 0");
4631
4632   // Check to see if we should lower the memmove to loads and stores first.
4633   // For cases within the target-specified limits, this is the best choice.
4634   ConstantSDNode *ConstantSize = dyn_cast<ConstantSDNode>(Size);
4635   if (ConstantSize) {
4636     // Memmove with size zero? Just return the original chain.
4637     if (ConstantSize->isNullValue())
4638       return Chain;
4639
4640     SDValue Result =
4641       getMemmoveLoadsAndStores(*this, dl, Chain, Dst, Src,
4642                                ConstantSize->getZExtValue(), Align, isVol,
4643                                false, DstPtrInfo, SrcPtrInfo);
4644     if (Result.getNode())
4645       return Result;
4646   }
4647
4648   // Then check to see if we should lower the memmove with target-specific
4649   // code. If the target chooses to do this, this is the next best.
4650   if (TSI) {
4651     SDValue Result = TSI->EmitTargetCodeForMemmove(
4652         *this, dl, Chain, Dst, Src, Size, Align, isVol, DstPtrInfo, SrcPtrInfo);
4653     if (Result.getNode())
4654       return Result;
4655   }
4656
4657   // FIXME: If the memmove is volatile, lowering it to plain libc memmove may
4658   // not be safe.  See memcpy above for more details.
4659
4660   // Emit a library call.
4661   TargetLowering::ArgListTy Args;
4662   TargetLowering::ArgListEntry Entry;
4663   Entry.Ty = getDataLayout().getIntPtrType(*getContext());
4664   Entry.Node = Dst; Args.push_back(Entry);
4665   Entry.Node = Src; Args.push_back(Entry);
4666   Entry.Node = Size; Args.push_back(Entry);
4667   // FIXME:  pass in SDLoc
4668   TargetLowering::CallLoweringInfo CLI(*this);
4669   CLI.setDebugLoc(dl)
4670       .setChain(Chain)
4671       .setCallee(TLI->getLibcallCallingConv(RTLIB::MEMMOVE),
4672                  Type::getVoidTy(*getContext()),
4673                  getExternalSymbol(TLI->getLibcallName(RTLIB::MEMMOVE),
4674                                    TLI->getPointerTy(getDataLayout())),
4675                  std::move(Args), 0)
4676       .setDiscardResult()
4677       .setTailCall(isTailCall);
4678
4679   std::pair<SDValue,SDValue> CallResult = TLI->LowerCallTo(CLI);
4680   return CallResult.second;
4681 }
4682
4683 SDValue SelectionDAG::getMemset(SDValue Chain, SDLoc dl, SDValue Dst,
4684                                 SDValue Src, SDValue Size,
4685                                 unsigned Align, bool isVol, bool isTailCall,
4686                                 MachinePointerInfo DstPtrInfo) {
4687   assert(Align && "The SDAG layer expects explicit alignment and reserves 0");
4688
4689   // Check to see if we should lower the memset to stores first.
4690   // For cases within the target-specified limits, this is the best choice.
4691   ConstantSDNode *ConstantSize = dyn_cast<ConstantSDNode>(Size);
4692   if (ConstantSize) {
4693     // Memset with size zero? Just return the original chain.
4694     if (ConstantSize->isNullValue())
4695       return Chain;
4696
4697     SDValue Result =
4698       getMemsetStores(*this, dl, Chain, Dst, Src, ConstantSize->getZExtValue(),
4699                       Align, isVol, DstPtrInfo);
4700
4701     if (Result.getNode())
4702       return Result;
4703   }
4704
4705   // Then check to see if we should lower the memset with target-specific
4706   // code. If the target chooses to do this, this is the next best.
4707   if (TSI) {
4708     SDValue Result = TSI->EmitTargetCodeForMemset(
4709         *this, dl, Chain, Dst, Src, Size, Align, isVol, DstPtrInfo);
4710     if (Result.getNode())
4711       return Result;
4712   }
4713
4714   // Emit a library call.
4715   Type *IntPtrTy = getDataLayout().getIntPtrType(*getContext());
4716   TargetLowering::ArgListTy Args;
4717   TargetLowering::ArgListEntry Entry;
4718   Entry.Node = Dst; Entry.Ty = IntPtrTy;
4719   Args.push_back(Entry);
4720   Entry.Node = Src;
4721   Entry.Ty = Src.getValueType().getTypeForEVT(*getContext());
4722   Args.push_back(Entry);
4723   Entry.Node = Size;
4724   Entry.Ty = IntPtrTy;
4725   Args.push_back(Entry);
4726
4727   // FIXME: pass in SDLoc
4728   TargetLowering::CallLoweringInfo CLI(*this);
4729   CLI.setDebugLoc(dl)
4730       .setChain(Chain)
4731       .setCallee(TLI->getLibcallCallingConv(RTLIB::MEMSET),
4732                  Type::getVoidTy(*getContext()),
4733                  getExternalSymbol(TLI->getLibcallName(RTLIB::MEMSET),
4734                                    TLI->getPointerTy(getDataLayout())),
4735                  std::move(Args), 0)
4736       .setDiscardResult()
4737       .setTailCall(isTailCall);
4738
4739   std::pair<SDValue,SDValue> CallResult = TLI->LowerCallTo(CLI);
4740   return CallResult.second;
4741 }
4742
4743 SDValue SelectionDAG::getAtomic(unsigned Opcode, SDLoc dl, EVT MemVT,
4744                                 SDVTList VTList, ArrayRef<SDValue> Ops,
4745                                 MachineMemOperand *MMO,
4746                                 AtomicOrdering SuccessOrdering,
4747                                 AtomicOrdering FailureOrdering,
4748                                 SynchronizationScope SynchScope) {
4749   FoldingSetNodeID ID;
4750   ID.AddInteger(MemVT.getRawBits());
4751   AddNodeIDNode(ID, Opcode, VTList, Ops);
4752   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
4753   void* IP = nullptr;
4754   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
4755     cast<AtomicSDNode>(E)->refineAlignment(MMO);
4756     return SDValue(E, 0);
4757   }
4758
4759   // Allocate the operands array for the node out of the BumpPtrAllocator, since
4760   // SDNode doesn't have access to it.  This memory will be "leaked" when
4761   // the node is deallocated, but recovered when the allocator is released.
4762   // If the number of operands is less than 5 we use AtomicSDNode's internal
4763   // storage.
4764   unsigned NumOps = Ops.size();
4765   SDUse *DynOps = NumOps > 4 ? OperandAllocator.Allocate<SDUse>(NumOps)
4766                              : nullptr;
4767
4768   SDNode *N = new (NodeAllocator) AtomicSDNode(Opcode, dl.getIROrder(),
4769                                                dl.getDebugLoc(), VTList, MemVT,
4770                                                Ops.data(), DynOps, NumOps, MMO,
4771                                                SuccessOrdering, FailureOrdering,
4772                                                SynchScope);
4773   CSEMap.InsertNode(N, IP);
4774   InsertNode(N);
4775   return SDValue(N, 0);
4776 }
4777
4778 SDValue SelectionDAG::getAtomic(unsigned Opcode, SDLoc dl, EVT MemVT,
4779                                 SDVTList VTList, ArrayRef<SDValue> Ops,
4780                                 MachineMemOperand *MMO,
4781                                 AtomicOrdering Ordering,
4782                                 SynchronizationScope SynchScope) {
4783   return getAtomic(Opcode, dl, MemVT, VTList, Ops, MMO, Ordering,
4784                    Ordering, SynchScope);
4785 }
4786
4787 SDValue SelectionDAG::getAtomicCmpSwap(
4788     unsigned Opcode, SDLoc dl, EVT MemVT, SDVTList VTs, SDValue Chain,
4789     SDValue Ptr, SDValue Cmp, SDValue Swp, MachinePointerInfo PtrInfo,
4790     unsigned Alignment, AtomicOrdering SuccessOrdering,
4791     AtomicOrdering FailureOrdering, SynchronizationScope SynchScope) {
4792   assert(Opcode == ISD::ATOMIC_CMP_SWAP ||
4793          Opcode == ISD::ATOMIC_CMP_SWAP_WITH_SUCCESS);
4794   assert(Cmp.getValueType() == Swp.getValueType() && "Invalid Atomic Op Types");
4795
4796   if (Alignment == 0)  // Ensure that codegen never sees alignment 0
4797     Alignment = getEVTAlignment(MemVT);
4798
4799   MachineFunction &MF = getMachineFunction();
4800
4801   // FIXME: Volatile isn't really correct; we should keep track of atomic
4802   // orderings in the memoperand.
4803   unsigned Flags = MachineMemOperand::MOVolatile;
4804   Flags |= MachineMemOperand::MOLoad;
4805   Flags |= MachineMemOperand::MOStore;
4806
4807   MachineMemOperand *MMO =
4808     MF.getMachineMemOperand(PtrInfo, Flags, MemVT.getStoreSize(), Alignment);
4809
4810   return getAtomicCmpSwap(Opcode, dl, MemVT, VTs, Chain, Ptr, Cmp, Swp, MMO,
4811                           SuccessOrdering, FailureOrdering, SynchScope);
4812 }
4813
4814 SDValue SelectionDAG::getAtomicCmpSwap(unsigned Opcode, SDLoc dl, EVT MemVT,
4815                                        SDVTList VTs, SDValue Chain, SDValue Ptr,
4816                                        SDValue Cmp, SDValue Swp,
4817                                        MachineMemOperand *MMO,
4818                                        AtomicOrdering SuccessOrdering,
4819                                        AtomicOrdering FailureOrdering,
4820                                        SynchronizationScope SynchScope) {
4821   assert(Opcode == ISD::ATOMIC_CMP_SWAP ||
4822          Opcode == ISD::ATOMIC_CMP_SWAP_WITH_SUCCESS);
4823   assert(Cmp.getValueType() == Swp.getValueType() && "Invalid Atomic Op Types");
4824
4825   SDValue Ops[] = {Chain, Ptr, Cmp, Swp};
4826   return getAtomic(Opcode, dl, MemVT, VTs, Ops, MMO,
4827                    SuccessOrdering, FailureOrdering, SynchScope);
4828 }
4829
4830 SDValue SelectionDAG::getAtomic(unsigned Opcode, SDLoc dl, EVT MemVT,
4831                                 SDValue Chain,
4832                                 SDValue Ptr, SDValue Val,
4833                                 const Value* PtrVal,
4834                                 unsigned Alignment,
4835                                 AtomicOrdering Ordering,
4836                                 SynchronizationScope SynchScope) {
4837   if (Alignment == 0)  // Ensure that codegen never sees alignment 0
4838     Alignment = getEVTAlignment(MemVT);
4839
4840   MachineFunction &MF = getMachineFunction();
4841   // An atomic store does not load. An atomic load does not store.
4842   // (An atomicrmw obviously both loads and stores.)
4843   // For now, atomics are considered to be volatile always, and they are
4844   // chained as such.
4845   // FIXME: Volatile isn't really correct; we should keep track of atomic
4846   // orderings in the memoperand.
4847   unsigned Flags = MachineMemOperand::MOVolatile;
4848   if (Opcode != ISD::ATOMIC_STORE)
4849     Flags |= MachineMemOperand::MOLoad;
4850   if (Opcode != ISD::ATOMIC_LOAD)
4851     Flags |= MachineMemOperand::MOStore;
4852
4853   MachineMemOperand *MMO =
4854     MF.getMachineMemOperand(MachinePointerInfo(PtrVal), Flags,
4855                             MemVT.getStoreSize(), Alignment);
4856
4857   return getAtomic(Opcode, dl, MemVT, Chain, Ptr, Val, MMO,
4858                    Ordering, SynchScope);
4859 }
4860
4861 SDValue SelectionDAG::getAtomic(unsigned Opcode, SDLoc dl, EVT MemVT,
4862                                 SDValue Chain,
4863                                 SDValue Ptr, SDValue Val,
4864                                 MachineMemOperand *MMO,
4865                                 AtomicOrdering Ordering,
4866                                 SynchronizationScope SynchScope) {
4867   assert((Opcode == ISD::ATOMIC_LOAD_ADD ||
4868           Opcode == ISD::ATOMIC_LOAD_SUB ||
4869           Opcode == ISD::ATOMIC_LOAD_AND ||
4870           Opcode == ISD::ATOMIC_LOAD_OR ||
4871           Opcode == ISD::ATOMIC_LOAD_XOR ||
4872           Opcode == ISD::ATOMIC_LOAD_NAND ||
4873           Opcode == ISD::ATOMIC_LOAD_MIN ||
4874           Opcode == ISD::ATOMIC_LOAD_MAX ||
4875           Opcode == ISD::ATOMIC_LOAD_UMIN ||
4876           Opcode == ISD::ATOMIC_LOAD_UMAX ||
4877           Opcode == ISD::ATOMIC_SWAP ||
4878           Opcode == ISD::ATOMIC_STORE) &&
4879          "Invalid Atomic Op");
4880
4881   EVT VT = Val.getValueType();
4882
4883   SDVTList VTs = Opcode == ISD::ATOMIC_STORE ? getVTList(MVT::Other) :
4884                                                getVTList(VT, MVT::Other);
4885   SDValue Ops[] = {Chain, Ptr, Val};
4886   return getAtomic(Opcode, dl, MemVT, VTs, Ops, MMO, Ordering, SynchScope);
4887 }
4888
4889 SDValue SelectionDAG::getAtomic(unsigned Opcode, SDLoc dl, EVT MemVT,
4890                                 EVT VT, SDValue Chain,
4891                                 SDValue Ptr,
4892                                 MachineMemOperand *MMO,
4893                                 AtomicOrdering Ordering,
4894                                 SynchronizationScope SynchScope) {
4895   assert(Opcode == ISD::ATOMIC_LOAD && "Invalid Atomic Op");
4896
4897   SDVTList VTs = getVTList(VT, MVT::Other);
4898   SDValue Ops[] = {Chain, Ptr};
4899   return getAtomic(Opcode, dl, MemVT, VTs, Ops, MMO, Ordering, SynchScope);
4900 }
4901
4902 /// getMergeValues - Create a MERGE_VALUES node from the given operands.
4903 SDValue SelectionDAG::getMergeValues(ArrayRef<SDValue> Ops, SDLoc dl) {
4904   if (Ops.size() == 1)
4905     return Ops[0];
4906
4907   SmallVector<EVT, 4> VTs;
4908   VTs.reserve(Ops.size());
4909   for (unsigned i = 0; i < Ops.size(); ++i)
4910     VTs.push_back(Ops[i].getValueType());
4911   return getNode(ISD::MERGE_VALUES, dl, getVTList(VTs), Ops);
4912 }
4913
4914 SDValue
4915 SelectionDAG::getMemIntrinsicNode(unsigned Opcode, SDLoc dl, SDVTList VTList,
4916                                   ArrayRef<SDValue> Ops,
4917                                   EVT MemVT, MachinePointerInfo PtrInfo,
4918                                   unsigned Align, bool Vol,
4919                                   bool ReadMem, bool WriteMem, unsigned Size) {
4920   if (Align == 0)  // Ensure that codegen never sees alignment 0
4921     Align = getEVTAlignment(MemVT);
4922
4923   MachineFunction &MF = getMachineFunction();
4924   unsigned Flags = 0;
4925   if (WriteMem)
4926     Flags |= MachineMemOperand::MOStore;
4927   if (ReadMem)
4928     Flags |= MachineMemOperand::MOLoad;
4929   if (Vol)
4930     Flags |= MachineMemOperand::MOVolatile;
4931   if (!Size)
4932     Size = MemVT.getStoreSize();
4933   MachineMemOperand *MMO =
4934     MF.getMachineMemOperand(PtrInfo, Flags, Size, Align);
4935
4936   return getMemIntrinsicNode(Opcode, dl, VTList, Ops, MemVT, MMO);
4937 }
4938
4939 SDValue
4940 SelectionDAG::getMemIntrinsicNode(unsigned Opcode, SDLoc dl, SDVTList VTList,
4941                                   ArrayRef<SDValue> Ops, EVT MemVT,
4942                                   MachineMemOperand *MMO) {
4943   assert((Opcode == ISD::INTRINSIC_VOID ||
4944           Opcode == ISD::INTRINSIC_W_CHAIN ||
4945           Opcode == ISD::PREFETCH ||
4946           Opcode == ISD::LIFETIME_START ||
4947           Opcode == ISD::LIFETIME_END ||
4948           (Opcode <= INT_MAX &&
4949            (int)Opcode >= ISD::FIRST_TARGET_MEMORY_OPCODE)) &&
4950          "Opcode is not a memory-accessing opcode!");
4951
4952   // Memoize the node unless it returns a flag.
4953   MemIntrinsicSDNode *N;
4954   if (VTList.VTs[VTList.NumVTs-1] != MVT::Glue) {
4955     FoldingSetNodeID ID;
4956     AddNodeIDNode(ID, Opcode, VTList, Ops);
4957     ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
4958     void *IP = nullptr;
4959     if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
4960       cast<MemIntrinsicSDNode>(E)->refineAlignment(MMO);
4961       return SDValue(E, 0);
4962     }
4963
4964     N = new (NodeAllocator) MemIntrinsicSDNode(Opcode, dl.getIROrder(),
4965                                                dl.getDebugLoc(), VTList, Ops,
4966                                                MemVT, MMO);
4967     CSEMap.InsertNode(N, IP);
4968   } else {
4969     N = new (NodeAllocator) MemIntrinsicSDNode(Opcode, dl.getIROrder(),
4970                                                dl.getDebugLoc(), VTList, Ops,
4971                                                MemVT, MMO);
4972   }
4973   InsertNode(N);
4974   return SDValue(N, 0);
4975 }
4976
4977 /// InferPointerInfo - If the specified ptr/offset is a frame index, infer a
4978 /// MachinePointerInfo record from it.  This is particularly useful because the
4979 /// code generator has many cases where it doesn't bother passing in a
4980 /// MachinePointerInfo to getLoad or getStore when it has "FI+Cst".
4981 static MachinePointerInfo InferPointerInfo(SelectionDAG &DAG, SDValue Ptr,
4982                                            int64_t Offset = 0) {
4983   // If this is FI+Offset, we can model it.
4984   if (const FrameIndexSDNode *FI = dyn_cast<FrameIndexSDNode>(Ptr))
4985     return MachinePointerInfo::getFixedStack(DAG.getMachineFunction(),
4986                                              FI->getIndex(), Offset);
4987
4988   // If this is (FI+Offset1)+Offset2, we can model it.
4989   if (Ptr.getOpcode() != ISD::ADD ||
4990       !isa<ConstantSDNode>(Ptr.getOperand(1)) ||
4991       !isa<FrameIndexSDNode>(Ptr.getOperand(0)))
4992     return MachinePointerInfo();
4993
4994   int FI = cast<FrameIndexSDNode>(Ptr.getOperand(0))->getIndex();
4995   return MachinePointerInfo::getFixedStack(
4996       DAG.getMachineFunction(), FI,
4997       Offset + cast<ConstantSDNode>(Ptr.getOperand(1))->getSExtValue());
4998 }
4999
5000 /// InferPointerInfo - If the specified ptr/offset is a frame index, infer a
5001 /// MachinePointerInfo record from it.  This is particularly useful because the
5002 /// code generator has many cases where it doesn't bother passing in a
5003 /// MachinePointerInfo to getLoad or getStore when it has "FI+Cst".
5004 static MachinePointerInfo InferPointerInfo(SelectionDAG &DAG, SDValue Ptr,
5005                                            SDValue OffsetOp) {
5006   // If the 'Offset' value isn't a constant, we can't handle this.
5007   if (ConstantSDNode *OffsetNode = dyn_cast<ConstantSDNode>(OffsetOp))
5008     return InferPointerInfo(DAG, Ptr, OffsetNode->getSExtValue());
5009   if (OffsetOp.getOpcode() == ISD::UNDEF)
5010     return InferPointerInfo(DAG, Ptr);
5011   return MachinePointerInfo();
5012 }
5013
5014
5015 SDValue
5016 SelectionDAG::getLoad(ISD::MemIndexedMode AM, ISD::LoadExtType ExtType,
5017                       EVT VT, SDLoc dl, SDValue Chain,
5018                       SDValue Ptr, SDValue Offset,
5019                       MachinePointerInfo PtrInfo, EVT MemVT,
5020                       bool isVolatile, bool isNonTemporal, bool isInvariant,
5021                       unsigned Alignment, const AAMDNodes &AAInfo,
5022                       const MDNode *Ranges) {
5023   assert(Chain.getValueType() == MVT::Other &&
5024         "Invalid chain type");
5025   if (Alignment == 0)  // Ensure that codegen never sees alignment 0
5026     Alignment = getEVTAlignment(VT);
5027
5028   unsigned Flags = MachineMemOperand::MOLoad;
5029   if (isVolatile)
5030     Flags |= MachineMemOperand::MOVolatile;
5031   if (isNonTemporal)
5032     Flags |= MachineMemOperand::MONonTemporal;
5033   if (isInvariant)
5034     Flags |= MachineMemOperand::MOInvariant;
5035
5036   // If we don't have a PtrInfo, infer the trivial frame index case to simplify
5037   // clients.
5038   if (PtrInfo.V.isNull())
5039     PtrInfo = InferPointerInfo(*this, Ptr, Offset);
5040
5041   MachineFunction &MF = getMachineFunction();
5042   MachineMemOperand *MMO =
5043     MF.getMachineMemOperand(PtrInfo, Flags, MemVT.getStoreSize(), Alignment,
5044                             AAInfo, Ranges);
5045   return getLoad(AM, ExtType, VT, dl, Chain, Ptr, Offset, MemVT, MMO);
5046 }
5047
5048 SDValue
5049 SelectionDAG::getLoad(ISD::MemIndexedMode AM, ISD::LoadExtType ExtType,
5050                       EVT VT, SDLoc dl, SDValue Chain,
5051                       SDValue Ptr, SDValue Offset, EVT MemVT,
5052                       MachineMemOperand *MMO) {
5053   if (VT == MemVT) {
5054     ExtType = ISD::NON_EXTLOAD;
5055   } else if (ExtType == ISD::NON_EXTLOAD) {
5056     assert(VT == MemVT && "Non-extending load from different memory type!");
5057   } else {
5058     // Extending load.
5059     assert(MemVT.getScalarType().bitsLT(VT.getScalarType()) &&
5060            "Should only be an extending load, not truncating!");
5061     assert(VT.isInteger() == MemVT.isInteger() &&
5062            "Cannot convert from FP to Int or Int -> FP!");
5063     assert(VT.isVector() == MemVT.isVector() &&
5064            "Cannot use an ext load to convert to or from a vector!");
5065     assert((!VT.isVector() ||
5066             VT.getVectorNumElements() == MemVT.getVectorNumElements()) &&
5067            "Cannot use an ext load to change the number of vector elements!");
5068   }
5069
5070   bool Indexed = AM != ISD::UNINDEXED;
5071   assert((Indexed || Offset.getOpcode() == ISD::UNDEF) &&
5072          "Unindexed load with an offset!");
5073
5074   SDVTList VTs = Indexed ?
5075     getVTList(VT, Ptr.getValueType(), MVT::Other) : getVTList(VT, MVT::Other);
5076   SDValue Ops[] = { Chain, Ptr, Offset };
5077   FoldingSetNodeID ID;
5078   AddNodeIDNode(ID, ISD::LOAD, VTs, Ops);
5079   ID.AddInteger(MemVT.getRawBits());
5080   ID.AddInteger(encodeMemSDNodeFlags(ExtType, AM, MMO->isVolatile(),
5081                                      MMO->isNonTemporal(),
5082                                      MMO->isInvariant()));
5083   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5084   void *IP = nullptr;
5085   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5086     cast<LoadSDNode>(E)->refineAlignment(MMO);
5087     return SDValue(E, 0);
5088   }
5089   SDNode *N = new (NodeAllocator) LoadSDNode(Ops, dl.getIROrder(),
5090                                              dl.getDebugLoc(), VTs, AM, ExtType,
5091                                              MemVT, MMO);
5092   CSEMap.InsertNode(N, IP);
5093   InsertNode(N);
5094   return SDValue(N, 0);
5095 }
5096
5097 SDValue SelectionDAG::getLoad(EVT VT, SDLoc dl,
5098                               SDValue Chain, SDValue Ptr,
5099                               MachinePointerInfo PtrInfo,
5100                               bool isVolatile, bool isNonTemporal,
5101                               bool isInvariant, unsigned Alignment,
5102                               const AAMDNodes &AAInfo,
5103                               const MDNode *Ranges) {
5104   SDValue Undef = getUNDEF(Ptr.getValueType());
5105   return getLoad(ISD::UNINDEXED, ISD::NON_EXTLOAD, VT, dl, Chain, Ptr, Undef,
5106                  PtrInfo, VT, isVolatile, isNonTemporal, isInvariant, Alignment,
5107                  AAInfo, Ranges);
5108 }
5109
5110 SDValue SelectionDAG::getLoad(EVT VT, SDLoc dl,
5111                               SDValue Chain, SDValue Ptr,
5112                               MachineMemOperand *MMO) {
5113   SDValue Undef = getUNDEF(Ptr.getValueType());
5114   return getLoad(ISD::UNINDEXED, ISD::NON_EXTLOAD, VT, dl, Chain, Ptr, Undef,
5115                  VT, MMO);
5116 }
5117
5118 SDValue SelectionDAG::getExtLoad(ISD::LoadExtType ExtType, SDLoc dl, EVT VT,
5119                                  SDValue Chain, SDValue Ptr,
5120                                  MachinePointerInfo PtrInfo, EVT MemVT,
5121                                  bool isVolatile, bool isNonTemporal,
5122                                  bool isInvariant, unsigned Alignment,
5123                                  const AAMDNodes &AAInfo) {
5124   SDValue Undef = getUNDEF(Ptr.getValueType());
5125   return getLoad(ISD::UNINDEXED, ExtType, VT, dl, Chain, Ptr, Undef,
5126                  PtrInfo, MemVT, isVolatile, isNonTemporal, isInvariant,
5127                  Alignment, AAInfo);
5128 }
5129
5130
5131 SDValue SelectionDAG::getExtLoad(ISD::LoadExtType ExtType, SDLoc dl, EVT VT,
5132                                  SDValue Chain, SDValue Ptr, EVT MemVT,
5133                                  MachineMemOperand *MMO) {
5134   SDValue Undef = getUNDEF(Ptr.getValueType());
5135   return getLoad(ISD::UNINDEXED, ExtType, VT, dl, Chain, Ptr, Undef,
5136                  MemVT, MMO);
5137 }
5138
5139 SDValue
5140 SelectionDAG::getIndexedLoad(SDValue OrigLoad, SDLoc dl, SDValue Base,
5141                              SDValue Offset, ISD::MemIndexedMode AM) {
5142   LoadSDNode *LD = cast<LoadSDNode>(OrigLoad);
5143   assert(LD->getOffset().getOpcode() == ISD::UNDEF &&
5144          "Load is already a indexed load!");
5145   return getLoad(AM, LD->getExtensionType(), OrigLoad.getValueType(), dl,
5146                  LD->getChain(), Base, Offset, LD->getPointerInfo(),
5147                  LD->getMemoryVT(), LD->isVolatile(), LD->isNonTemporal(),
5148                  false, LD->getAlignment());
5149 }
5150
5151 SDValue SelectionDAG::getStore(SDValue Chain, SDLoc dl, SDValue Val,
5152                                SDValue Ptr, MachinePointerInfo PtrInfo,
5153                                bool isVolatile, bool isNonTemporal,
5154                                unsigned Alignment, const AAMDNodes &AAInfo) {
5155   assert(Chain.getValueType() == MVT::Other &&
5156         "Invalid chain type");
5157   if (Alignment == 0)  // Ensure that codegen never sees alignment 0
5158     Alignment = getEVTAlignment(Val.getValueType());
5159
5160   unsigned Flags = MachineMemOperand::MOStore;
5161   if (isVolatile)
5162     Flags |= MachineMemOperand::MOVolatile;
5163   if (isNonTemporal)
5164     Flags |= MachineMemOperand::MONonTemporal;
5165
5166   if (PtrInfo.V.isNull())
5167     PtrInfo = InferPointerInfo(*this, Ptr);
5168
5169   MachineFunction &MF = getMachineFunction();
5170   MachineMemOperand *MMO =
5171     MF.getMachineMemOperand(PtrInfo, Flags,
5172                             Val.getValueType().getStoreSize(), Alignment,
5173                             AAInfo);
5174
5175   return getStore(Chain, dl, Val, Ptr, MMO);
5176 }
5177
5178 SDValue SelectionDAG::getStore(SDValue Chain, SDLoc dl, SDValue Val,
5179                                SDValue Ptr, MachineMemOperand *MMO) {
5180   assert(Chain.getValueType() == MVT::Other &&
5181         "Invalid chain type");
5182   EVT VT = Val.getValueType();
5183   SDVTList VTs = getVTList(MVT::Other);
5184   SDValue Undef = getUNDEF(Ptr.getValueType());
5185   SDValue Ops[] = { Chain, Val, Ptr, Undef };
5186   FoldingSetNodeID ID;
5187   AddNodeIDNode(ID, ISD::STORE, VTs, Ops);
5188   ID.AddInteger(VT.getRawBits());
5189   ID.AddInteger(encodeMemSDNodeFlags(false, ISD::UNINDEXED, MMO->isVolatile(),
5190                                      MMO->isNonTemporal(), MMO->isInvariant()));
5191   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5192   void *IP = nullptr;
5193   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5194     cast<StoreSDNode>(E)->refineAlignment(MMO);
5195     return SDValue(E, 0);
5196   }
5197   SDNode *N = new (NodeAllocator) StoreSDNode(Ops, dl.getIROrder(),
5198                                               dl.getDebugLoc(), VTs,
5199                                               ISD::UNINDEXED, false, VT, MMO);
5200   CSEMap.InsertNode(N, IP);
5201   InsertNode(N);
5202   return SDValue(N, 0);
5203 }
5204
5205 SDValue SelectionDAG::getTruncStore(SDValue Chain, SDLoc dl, SDValue Val,
5206                                     SDValue Ptr, MachinePointerInfo PtrInfo,
5207                                     EVT SVT,bool isVolatile, bool isNonTemporal,
5208                                     unsigned Alignment,
5209                                     const AAMDNodes &AAInfo) {
5210   assert(Chain.getValueType() == MVT::Other &&
5211         "Invalid chain type");
5212   if (Alignment == 0)  // Ensure that codegen never sees alignment 0
5213     Alignment = getEVTAlignment(SVT);
5214
5215   unsigned Flags = MachineMemOperand::MOStore;
5216   if (isVolatile)
5217     Flags |= MachineMemOperand::MOVolatile;
5218   if (isNonTemporal)
5219     Flags |= MachineMemOperand::MONonTemporal;
5220
5221   if (PtrInfo.V.isNull())
5222     PtrInfo = InferPointerInfo(*this, Ptr);
5223
5224   MachineFunction &MF = getMachineFunction();
5225   MachineMemOperand *MMO =
5226     MF.getMachineMemOperand(PtrInfo, Flags, SVT.getStoreSize(), Alignment,
5227                             AAInfo);
5228
5229   return getTruncStore(Chain, dl, Val, Ptr, SVT, MMO);
5230 }
5231
5232 SDValue SelectionDAG::getTruncStore(SDValue Chain, SDLoc dl, SDValue Val,
5233                                     SDValue Ptr, EVT SVT,
5234                                     MachineMemOperand *MMO) {
5235   EVT VT = Val.getValueType();
5236
5237   assert(Chain.getValueType() == MVT::Other &&
5238         "Invalid chain type");
5239   if (VT == SVT)
5240     return getStore(Chain, dl, Val, Ptr, MMO);
5241
5242   assert(SVT.getScalarType().bitsLT(VT.getScalarType()) &&
5243          "Should only be a truncating store, not extending!");
5244   assert(VT.isInteger() == SVT.isInteger() &&
5245          "Can't do FP-INT conversion!");
5246   assert(VT.isVector() == SVT.isVector() &&
5247          "Cannot use trunc store to convert to or from a vector!");
5248   assert((!VT.isVector() ||
5249           VT.getVectorNumElements() == SVT.getVectorNumElements()) &&
5250          "Cannot use trunc store to change the number of vector elements!");
5251
5252   SDVTList VTs = getVTList(MVT::Other);
5253   SDValue Undef = getUNDEF(Ptr.getValueType());
5254   SDValue Ops[] = { Chain, Val, Ptr, Undef };
5255   FoldingSetNodeID ID;
5256   AddNodeIDNode(ID, ISD::STORE, VTs, Ops);
5257   ID.AddInteger(SVT.getRawBits());
5258   ID.AddInteger(encodeMemSDNodeFlags(true, ISD::UNINDEXED, MMO->isVolatile(),
5259                                      MMO->isNonTemporal(), MMO->isInvariant()));
5260   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5261   void *IP = nullptr;
5262   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5263     cast<StoreSDNode>(E)->refineAlignment(MMO);
5264     return SDValue(E, 0);
5265   }
5266   SDNode *N = new (NodeAllocator) StoreSDNode(Ops, dl.getIROrder(),
5267                                               dl.getDebugLoc(), VTs,
5268                                               ISD::UNINDEXED, true, SVT, MMO);
5269   CSEMap.InsertNode(N, IP);
5270   InsertNode(N);
5271   return SDValue(N, 0);
5272 }
5273
5274 SDValue
5275 SelectionDAG::getIndexedStore(SDValue OrigStore, SDLoc dl, SDValue Base,
5276                               SDValue Offset, ISD::MemIndexedMode AM) {
5277   StoreSDNode *ST = cast<StoreSDNode>(OrigStore);
5278   assert(ST->getOffset().getOpcode() == ISD::UNDEF &&
5279          "Store is already a indexed store!");
5280   SDVTList VTs = getVTList(Base.getValueType(), MVT::Other);
5281   SDValue Ops[] = { ST->getChain(), ST->getValue(), Base, Offset };
5282   FoldingSetNodeID ID;
5283   AddNodeIDNode(ID, ISD::STORE, VTs, Ops);
5284   ID.AddInteger(ST->getMemoryVT().getRawBits());
5285   ID.AddInteger(ST->getRawSubclassData());
5286   ID.AddInteger(ST->getPointerInfo().getAddrSpace());
5287   void *IP = nullptr;
5288   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP))
5289     return SDValue(E, 0);
5290
5291   SDNode *N = new (NodeAllocator) StoreSDNode(Ops, dl.getIROrder(),
5292                                               dl.getDebugLoc(), VTs, AM,
5293                                               ST->isTruncatingStore(),
5294                                               ST->getMemoryVT(),
5295                                               ST->getMemOperand());
5296   CSEMap.InsertNode(N, IP);
5297   InsertNode(N);
5298   return SDValue(N, 0);
5299 }
5300
5301 SDValue
5302 SelectionDAG::getMaskedLoad(EVT VT, SDLoc dl, SDValue Chain,
5303                             SDValue Ptr, SDValue Mask, SDValue Src0, EVT MemVT,
5304                             MachineMemOperand *MMO, ISD::LoadExtType ExtTy) {
5305
5306   SDVTList VTs = getVTList(VT, MVT::Other);
5307   SDValue Ops[] = { Chain, Ptr, Mask, Src0 };
5308   FoldingSetNodeID ID;
5309   AddNodeIDNode(ID, ISD::MLOAD, VTs, Ops);
5310   ID.AddInteger(VT.getRawBits());
5311   ID.AddInteger(encodeMemSDNodeFlags(ExtTy, ISD::UNINDEXED,
5312                                      MMO->isVolatile(),
5313                                      MMO->isNonTemporal(),
5314                                      MMO->isInvariant()));
5315   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5316   void *IP = nullptr;
5317   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5318     cast<MaskedLoadSDNode>(E)->refineAlignment(MMO);
5319     return SDValue(E, 0);
5320   }
5321   SDNode *N = new (NodeAllocator) MaskedLoadSDNode(dl.getIROrder(),
5322                                              dl.getDebugLoc(), Ops, 4, VTs,
5323                                              ExtTy, MemVT, MMO);
5324   CSEMap.InsertNode(N, IP);
5325   InsertNode(N);
5326   return SDValue(N, 0);
5327 }
5328
5329 SDValue SelectionDAG::getMaskedStore(SDValue Chain, SDLoc dl, SDValue Val,
5330                                      SDValue Ptr, SDValue Mask, EVT MemVT,
5331                                      MachineMemOperand *MMO, bool isTrunc) {
5332   assert(Chain.getValueType() == MVT::Other &&
5333         "Invalid chain type");
5334   EVT VT = Val.getValueType();
5335   SDVTList VTs = getVTList(MVT::Other);
5336   SDValue Ops[] = { Chain, Ptr, Mask, Val };
5337   FoldingSetNodeID ID;
5338   AddNodeIDNode(ID, ISD::MSTORE, VTs, Ops);
5339   ID.AddInteger(VT.getRawBits());
5340   ID.AddInteger(encodeMemSDNodeFlags(false, ISD::UNINDEXED, MMO->isVolatile(),
5341                                      MMO->isNonTemporal(), MMO->isInvariant()));
5342   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5343   void *IP = nullptr;
5344   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5345     cast<MaskedStoreSDNode>(E)->refineAlignment(MMO);
5346     return SDValue(E, 0);
5347   }
5348   SDNode *N = new (NodeAllocator) MaskedStoreSDNode(dl.getIROrder(),
5349                                                     dl.getDebugLoc(), Ops, 4,
5350                                                     VTs, isTrunc, MemVT, MMO);
5351   CSEMap.InsertNode(N, IP);
5352   InsertNode(N);
5353   return SDValue(N, 0);
5354 }
5355
5356 SDValue
5357 SelectionDAG::getMaskedGather(SDVTList VTs, EVT VT, SDLoc dl,
5358                               ArrayRef<SDValue> Ops,
5359                               MachineMemOperand *MMO) {
5360
5361   FoldingSetNodeID ID;
5362   AddNodeIDNode(ID, ISD::MGATHER, VTs, Ops);
5363   ID.AddInteger(VT.getRawBits());
5364   ID.AddInteger(encodeMemSDNodeFlags(ISD::NON_EXTLOAD, ISD::UNINDEXED,
5365                                      MMO->isVolatile(),
5366                                      MMO->isNonTemporal(),
5367                                      MMO->isInvariant()));
5368   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5369   void *IP = nullptr;
5370   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5371     cast<MaskedGatherSDNode>(E)->refineAlignment(MMO);
5372     return SDValue(E, 0);
5373   }
5374   MaskedGatherSDNode *N =
5375     new (NodeAllocator) MaskedGatherSDNode(dl.getIROrder(), dl.getDebugLoc(),
5376                                            Ops, VTs, VT, MMO);
5377   CSEMap.InsertNode(N, IP);
5378   InsertNode(N);
5379   return SDValue(N, 0);
5380 }
5381
5382 SDValue SelectionDAG::getMaskedScatter(SDVTList VTs, EVT VT, SDLoc dl,
5383                                        ArrayRef<SDValue> Ops,
5384                                        MachineMemOperand *MMO) {
5385   FoldingSetNodeID ID;
5386   AddNodeIDNode(ID, ISD::MSCATTER, VTs, Ops);
5387   ID.AddInteger(VT.getRawBits());
5388   ID.AddInteger(encodeMemSDNodeFlags(false, ISD::UNINDEXED, MMO->isVolatile(),
5389                                      MMO->isNonTemporal(),
5390                                      MMO->isInvariant()));
5391   ID.AddInteger(MMO->getPointerInfo().getAddrSpace());
5392   void *IP = nullptr;
5393   if (SDNode *E = FindNodeOrInsertPos(ID, dl.getDebugLoc(), IP)) {
5394     cast<MaskedScatterSDNode>(E)->refineAlignment(MMO);
5395     return SDValue(E, 0);
5396   }
5397   SDNode *N =
5398     new (NodeAllocator) MaskedScatterSDNode(dl.getIROrder(), dl.getDebugLoc(),
5399                                             Ops, VTs, VT, MMO);
5400   CSEMap.InsertNode(N, IP);
5401   InsertNode(N);
5402   return SDValue(N, 0);
5403 }
5404
5405 SDValue SelectionDAG::getVAArg(EVT VT, SDLoc dl,
5406                                SDValue Chain, SDValue Ptr,
5407                                SDValue SV,
5408                                unsigned Align) {
5409   SDValue Ops[] = { Chain, Ptr, SV, getTargetConstant(Align, dl, MVT::i32) };
5410   return getNode(ISD::VAARG, dl, getVTList(VT, MVT::Other), Ops);
5411 }
5412
5413 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT,
5414                               ArrayRef<SDUse> Ops) {
5415   switch (Ops.size()) {
5416   case 0: return getNode(Opcode, DL, VT);
5417   case 1: return getNode(Opcode, DL, VT, static_cast<const SDValue>(Ops[0]));
5418   case 2: return getNode(Opcode, DL, VT, Ops[0], Ops[1]);
5419   case 3: return getNode(Opcode, DL, VT, Ops[0], Ops[1], Ops[2]);
5420   default: break;
5421   }
5422
5423   // Copy from an SDUse array into an SDValue array for use with
5424   // the regular getNode logic.
5425   SmallVector<SDValue, 8> NewOps(Ops.begin(), Ops.end());
5426   return getNode(Opcode, DL, VT, NewOps);
5427 }
5428
5429 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, EVT VT,
5430                               ArrayRef<SDValue> Ops, const SDNodeFlags *Flags) {
5431   unsigned NumOps = Ops.size();
5432   switch (NumOps) {
5433   case 0: return getNode(Opcode, DL, VT);
5434   case 1: return getNode(Opcode, DL, VT, Ops[0]);
5435   case 2: return getNode(Opcode, DL, VT, Ops[0], Ops[1], Flags);
5436   case 3: return getNode(Opcode, DL, VT, Ops[0], Ops[1], Ops[2]);
5437   default: break;
5438   }
5439
5440   switch (Opcode) {
5441   default: break;
5442   case ISD::SELECT_CC: {
5443     assert(NumOps == 5 && "SELECT_CC takes 5 operands!");
5444     assert(Ops[0].getValueType() == Ops[1].getValueType() &&
5445            "LHS and RHS of condition must have same type!");
5446     assert(Ops[2].getValueType() == Ops[3].getValueType() &&
5447            "True and False arms of SelectCC must have same type!");
5448     assert(Ops[2].getValueType() == VT &&
5449            "select_cc node must be of same type as true and false value!");
5450     break;
5451   }
5452   case ISD::BR_CC: {
5453     assert(NumOps == 5 && "BR_CC takes 5 operands!");
5454     assert(Ops[2].getValueType() == Ops[3].getValueType() &&
5455            "LHS/RHS of comparison should match types!");
5456     break;
5457   }
5458   }
5459
5460   // Memoize nodes.
5461   SDNode *N;
5462   SDVTList VTs = getVTList(VT);
5463
5464   if (VT != MVT::Glue) {
5465     FoldingSetNodeID ID;
5466     AddNodeIDNode(ID, Opcode, VTs, Ops);
5467     void *IP = nullptr;
5468
5469     if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
5470       return SDValue(E, 0);
5471
5472     N = new (NodeAllocator) SDNode(Opcode, DL.getIROrder(), DL.getDebugLoc(),
5473                                    VTs, Ops);
5474     CSEMap.InsertNode(N, IP);
5475   } else {
5476     N = new (NodeAllocator) SDNode(Opcode, DL.getIROrder(), DL.getDebugLoc(),
5477                                    VTs, Ops);
5478   }
5479
5480   InsertNode(N);
5481   return SDValue(N, 0);
5482 }
5483
5484 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL,
5485                               ArrayRef<EVT> ResultTys, ArrayRef<SDValue> Ops) {
5486   return getNode(Opcode, DL, getVTList(ResultTys), Ops);
5487 }
5488
5489 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList,
5490                               ArrayRef<SDValue> Ops) {
5491   if (VTList.NumVTs == 1)
5492     return getNode(Opcode, DL, VTList.VTs[0], Ops);
5493
5494 #if 0
5495   switch (Opcode) {
5496   // FIXME: figure out how to safely handle things like
5497   // int foo(int x) { return 1 << (x & 255); }
5498   // int bar() { return foo(256); }
5499   case ISD::SRA_PARTS:
5500   case ISD::SRL_PARTS:
5501   case ISD::SHL_PARTS:
5502     if (N3.getOpcode() == ISD::SIGN_EXTEND_INREG &&
5503         cast<VTSDNode>(N3.getOperand(1))->getVT() != MVT::i1)
5504       return getNode(Opcode, DL, VT, N1, N2, N3.getOperand(0));
5505     else if (N3.getOpcode() == ISD::AND)
5506       if (ConstantSDNode *AndRHS = dyn_cast<ConstantSDNode>(N3.getOperand(1))) {
5507         // If the and is only masking out bits that cannot effect the shift,
5508         // eliminate the and.
5509         unsigned NumBits = VT.getScalarType().getSizeInBits()*2;
5510         if ((AndRHS->getValue() & (NumBits-1)) == NumBits-1)
5511           return getNode(Opcode, DL, VT, N1, N2, N3.getOperand(0));
5512       }
5513     break;
5514   }
5515 #endif
5516
5517   // Memoize the node unless it returns a flag.
5518   SDNode *N;
5519   unsigned NumOps = Ops.size();
5520   if (VTList.VTs[VTList.NumVTs-1] != MVT::Glue) {
5521     FoldingSetNodeID ID;
5522     AddNodeIDNode(ID, Opcode, VTList, Ops);
5523     void *IP = nullptr;
5524     if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP))
5525       return SDValue(E, 0);
5526
5527     if (NumOps == 1) {
5528       N = new (NodeAllocator) UnarySDNode(Opcode, DL.getIROrder(),
5529                                           DL.getDebugLoc(), VTList, Ops[0]);
5530     } else if (NumOps == 2) {
5531       N = new (NodeAllocator) BinarySDNode(Opcode, DL.getIROrder(),
5532                                            DL.getDebugLoc(), VTList, Ops[0],
5533                                            Ops[1]);
5534     } else if (NumOps == 3) {
5535       N = new (NodeAllocator) TernarySDNode(Opcode, DL.getIROrder(),
5536                                             DL.getDebugLoc(), VTList, Ops[0],
5537                                             Ops[1], Ops[2]);
5538     } else {
5539       N = new (NodeAllocator) SDNode(Opcode, DL.getIROrder(), DL.getDebugLoc(),
5540                                      VTList, Ops);
5541     }
5542     CSEMap.InsertNode(N, IP);
5543   } else {
5544     if (NumOps == 1) {
5545       N = new (NodeAllocator) UnarySDNode(Opcode, DL.getIROrder(),
5546                                           DL.getDebugLoc(), VTList, Ops[0]);
5547     } else if (NumOps == 2) {
5548       N = new (NodeAllocator) BinarySDNode(Opcode, DL.getIROrder(),
5549                                            DL.getDebugLoc(), VTList, Ops[0],
5550                                            Ops[1]);
5551     } else if (NumOps == 3) {
5552       N = new (NodeAllocator) TernarySDNode(Opcode, DL.getIROrder(),
5553                                             DL.getDebugLoc(), VTList, Ops[0],
5554                                             Ops[1], Ops[2]);
5555     } else {
5556       N = new (NodeAllocator) SDNode(Opcode, DL.getIROrder(), DL.getDebugLoc(),
5557                                      VTList, Ops);
5558     }
5559   }
5560   InsertNode(N);
5561   return SDValue(N, 0);
5562 }
5563
5564 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList) {
5565   return getNode(Opcode, DL, VTList, None);
5566 }
5567
5568 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList,
5569                               SDValue N1) {
5570   SDValue Ops[] = { N1 };
5571   return getNode(Opcode, DL, VTList, Ops);
5572 }
5573
5574 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList,
5575                               SDValue N1, SDValue N2) {
5576   SDValue Ops[] = { N1, N2 };
5577   return getNode(Opcode, DL, VTList, Ops);
5578 }
5579
5580 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList,
5581                               SDValue N1, SDValue N2, SDValue N3) {
5582   SDValue Ops[] = { N1, N2, N3 };
5583   return getNode(Opcode, DL, VTList, Ops);
5584 }
5585
5586 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList,
5587                               SDValue N1, SDValue N2, SDValue N3,
5588                               SDValue N4) {
5589   SDValue Ops[] = { N1, N2, N3, N4 };
5590   return getNode(Opcode, DL, VTList, Ops);
5591 }
5592
5593 SDValue SelectionDAG::getNode(unsigned Opcode, SDLoc DL, SDVTList VTList,
5594                               SDValue N1, SDValue N2, SDValue N3,
5595                               SDValue N4, SDValue N5) {
5596   SDValue Ops[] = { N1, N2, N3, N4, N5 };
5597   return getNode(Opcode, DL, VTList, Ops);
5598 }
5599
5600 SDVTList SelectionDAG::getVTList(EVT VT) {
5601   return makeVTList(SDNode::getValueTypeList(VT), 1);
5602 }
5603
5604 SDVTList SelectionDAG::getVTList(EVT VT1, EVT VT2) {
5605   FoldingSetNodeID ID;
5606   ID.AddInteger(2U);
5607   ID.AddInteger(VT1.getRawBits());
5608   ID.AddInteger(VT2.getRawBits());
5609
5610   void *IP = nullptr;
5611   SDVTListNode *Result = VTListMap.FindNodeOrInsertPos(ID, IP);
5612   if (!Result) {
5613     EVT *Array = Allocator.Allocate<EVT>(2);
5614     Array[0] = VT1;
5615     Array[1] = VT2;
5616     Result = new (Allocator) SDVTListNode(ID.Intern(Allocator), Array, 2);
5617     VTListMap.InsertNode(Result, IP);
5618   }
5619   return Result->getSDVTList();
5620 }
5621
5622 SDVTList SelectionDAG::getVTList(EVT VT1, EVT VT2, EVT VT3) {
5623   FoldingSetNodeID ID;
5624   ID.AddInteger(3U);
5625   ID.AddInteger(VT1.getRawBits());
5626   ID.AddInteger(VT2.getRawBits());
5627   ID.AddInteger(VT3.getRawBits());
5628
5629   void *IP = nullptr;
5630   SDVTListNode *Result = VTListMap.FindNodeOrInsertPos(ID, IP);
5631   if (!Result) {
5632     EVT *Array = Allocator.Allocate<EVT>(3);
5633     Array[0] = VT1;
5634     Array[1] = VT2;
5635     Array[2] = VT3;
5636     Result = new (Allocator) SDVTListNode(ID.Intern(Allocator), Array, 3);
5637     VTListMap.InsertNode(Result, IP);
5638   }
5639   return Result->getSDVTList();
5640 }
5641
5642 SDVTList SelectionDAG::getVTList(EVT VT1, EVT VT2, EVT VT3, EVT VT4) {
5643   FoldingSetNodeID ID;
5644   ID.AddInteger(4U);
5645   ID.AddInteger(VT1.getRawBits());
5646   ID.AddInteger(VT2.getRawBits());
5647   ID.AddInteger(VT3.getRawBits());
5648   ID.AddInteger(VT4.getRawBits());
5649
5650   void *IP = nullptr;
5651   SDVTListNode *Result = VTListMap.FindNodeOrInsertPos(ID, IP);
5652   if (!Result) {
5653     EVT *Array = Allocator.Allocate<EVT>(4);
5654     Array[0] = VT1;
5655     Array[1] = VT2;
5656     Array[2] = VT3;
5657     Array[3] = VT4;
5658     Result = new (Allocator) SDVTListNode(ID.Intern(Allocator), Array, 4);
5659     VTListMap.InsertNode(Result, IP);
5660   }
5661   return Result->getSDVTList();
5662 }
5663
5664 SDVTList SelectionDAG::getVTList(ArrayRef<EVT> VTs) {
5665   unsigned NumVTs = VTs.size();
5666   FoldingSetNodeID ID;
5667   ID.AddInteger(NumVTs);
5668   for (unsigned index = 0; index < NumVTs; index++) {
5669     ID.AddInteger(VTs[index].getRawBits());
5670   }
5671
5672   void *IP = nullptr;
5673   SDVTListNode *Result = VTListMap.FindNodeOrInsertPos(ID, IP);
5674   if (!Result) {
5675     EVT *Array = Allocator.Allocate<EVT>(NumVTs);
5676     std::copy(VTs.begin(), VTs.end(), Array);
5677     Result = new (Allocator) SDVTListNode(ID.Intern(Allocator), Array, NumVTs);
5678     VTListMap.InsertNode(Result, IP);
5679   }
5680   return Result->getSDVTList();
5681 }
5682
5683
5684 /// UpdateNodeOperands - *Mutate* the specified node in-place to have the
5685 /// specified operands.  If the resultant node already exists in the DAG,
5686 /// this does not modify the specified node, instead it returns the node that
5687 /// already exists.  If the resultant node does not exist in the DAG, the
5688 /// input node is returned.  As a degenerate case, if you specify the same
5689 /// input operands as the node already has, the input node is returned.
5690 SDNode *SelectionDAG::UpdateNodeOperands(SDNode *N, SDValue Op) {
5691   assert(N->getNumOperands() == 1 && "Update with wrong number of operands");
5692
5693   // Check to see if there is no change.
5694   if (Op == N->getOperand(0)) return N;
5695
5696   // See if the modified node already exists.
5697   void *InsertPos = nullptr;
5698   if (SDNode *Existing = FindModifiedNodeSlot(N, Op, InsertPos))
5699     return Existing;
5700
5701   // Nope it doesn't.  Remove the node from its current place in the maps.
5702   if (InsertPos)
5703     if (!RemoveNodeFromCSEMaps(N))
5704       InsertPos = nullptr;
5705
5706   // Now we update the operands.
5707   N->OperandList[0].set(Op);
5708
5709   // If this gets put into a CSE map, add it.
5710   if (InsertPos) CSEMap.InsertNode(N, InsertPos);
5711   return N;
5712 }
5713
5714 SDNode *SelectionDAG::UpdateNodeOperands(SDNode *N, SDValue Op1, SDValue Op2) {
5715   assert(N->getNumOperands() == 2 && "Update with wrong number of operands");
5716
5717   // Check to see if there is no change.
5718   if (Op1 == N->getOperand(0) && Op2 == N->getOperand(1))
5719     return N;   // No operands changed, just return the input node.
5720
5721   // See if the modified node already exists.
5722   void *InsertPos = nullptr;
5723   if (SDNode *Existing = FindModifiedNodeSlot(N, Op1, Op2, InsertPos))
5724     return Existing;
5725
5726   // Nope it doesn't.  Remove the node from its current place in the maps.
5727   if (InsertPos)
5728     if (!RemoveNodeFromCSEMaps(N))
5729       InsertPos = nullptr;
5730
5731   // Now we update the operands.
5732   if (N->OperandList[0] != Op1)
5733     N->OperandList[0].set(Op1);
5734   if (N->OperandList[1] != Op2)
5735     N->OperandList[1].set(Op2);
5736
5737   // If this gets put into a CSE map, add it.
5738   if (InsertPos) CSEMap.InsertNode(N, InsertPos);
5739   return N;
5740 }
5741
5742 SDNode *SelectionDAG::
5743 UpdateNodeOperands(SDNode *N, SDValue Op1, SDValue Op2, SDValue Op3) {
5744   SDValue Ops[] = { Op1, Op2, Op3 };
5745   return UpdateNodeOperands(N, Ops);
5746 }
5747
5748 SDNode *SelectionDAG::
5749 UpdateNodeOperands(SDNode *N, SDValue Op1, SDValue Op2,
5750                    SDValue Op3, SDValue Op4) {
5751   SDValue Ops[] = { Op1, Op2, Op3, Op4 };
5752   return UpdateNodeOperands(N, Ops);
5753 }
5754
5755 SDNode *SelectionDAG::
5756 UpdateNodeOperands(SDNode *N, SDValue Op1, SDValue Op2,
5757                    SDValue Op3, SDValue Op4, SDValue Op5) {
5758   SDValue Ops[] = { Op1, Op2, Op3, Op4, Op5 };
5759   return UpdateNodeOperands(N, Ops);
5760 }
5761
5762 SDNode *SelectionDAG::
5763 UpdateNodeOperands(SDNode *N, ArrayRef<SDValue> Ops) {
5764   unsigned NumOps = Ops.size();
5765   assert(N->getNumOperands() == NumOps &&
5766          "Update with wrong number of operands");
5767
5768   // If no operands changed just return the input node.
5769   if (std::equal(Ops.begin(), Ops.end(), N->op_begin()))
5770     return N;
5771
5772   // See if the modified node already exists.
5773   void *InsertPos = nullptr;
5774   if (SDNode *Existing = FindModifiedNodeSlot(N, Ops, InsertPos))
5775     return Existing;
5776
5777   // Nope it doesn't.  Remove the node from its current place in the maps.
5778   if (InsertPos)
5779     if (!RemoveNodeFromCSEMaps(N))
5780       InsertPos = nullptr;
5781
5782   // Now we update the operands.
5783   for (unsigned i = 0; i != NumOps; ++i)
5784     if (N->OperandList[i] != Ops[i])
5785       N->OperandList[i].set(Ops[i]);
5786
5787   // If this gets put into a CSE map, add it.
5788   if (InsertPos) CSEMap.InsertNode(N, InsertPos);
5789   return N;
5790 }
5791
5792 /// DropOperands - Release the operands and set this node to have
5793 /// zero operands.
5794 void SDNode::DropOperands() {
5795   // Unlike the code in MorphNodeTo that does this, we don't need to
5796   // watch for dead nodes here.
5797   for (op_iterator I = op_begin(), E = op_end(); I != E; ) {
5798     SDUse &Use = *I++;
5799     Use.set(SDValue());
5800   }
5801 }
5802
5803 /// SelectNodeTo - These are wrappers around MorphNodeTo that accept a
5804 /// machine opcode.
5805 ///
5806 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5807                                    EVT VT) {
5808   SDVTList VTs = getVTList(VT);
5809   return SelectNodeTo(N, MachineOpc, VTs, None);
5810 }
5811
5812 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5813                                    EVT VT, SDValue Op1) {
5814   SDVTList VTs = getVTList(VT);
5815   SDValue Ops[] = { Op1 };
5816   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5817 }
5818
5819 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5820                                    EVT VT, SDValue Op1,
5821                                    SDValue Op2) {
5822   SDVTList VTs = getVTList(VT);
5823   SDValue Ops[] = { Op1, Op2 };
5824   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5825 }
5826
5827 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5828                                    EVT VT, SDValue Op1,
5829                                    SDValue Op2, SDValue Op3) {
5830   SDVTList VTs = getVTList(VT);
5831   SDValue Ops[] = { Op1, Op2, Op3 };
5832   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5833 }
5834
5835 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5836                                    EVT VT, ArrayRef<SDValue> Ops) {
5837   SDVTList VTs = getVTList(VT);
5838   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5839 }
5840
5841 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5842                                    EVT VT1, EVT VT2, ArrayRef<SDValue> Ops) {
5843   SDVTList VTs = getVTList(VT1, VT2);
5844   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5845 }
5846
5847 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5848                                    EVT VT1, EVT VT2) {
5849   SDVTList VTs = getVTList(VT1, VT2);
5850   return SelectNodeTo(N, MachineOpc, VTs, None);
5851 }
5852
5853 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5854                                    EVT VT1, EVT VT2, EVT VT3,
5855                                    ArrayRef<SDValue> Ops) {
5856   SDVTList VTs = getVTList(VT1, VT2, VT3);
5857   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5858 }
5859
5860 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5861                                    EVT VT1, EVT VT2, EVT VT3, EVT VT4,
5862                                    ArrayRef<SDValue> Ops) {
5863   SDVTList VTs = getVTList(VT1, VT2, VT3, VT4);
5864   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5865 }
5866
5867 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5868                                    EVT VT1, EVT VT2,
5869                                    SDValue Op1) {
5870   SDVTList VTs = getVTList(VT1, VT2);
5871   SDValue Ops[] = { Op1 };
5872   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5873 }
5874
5875 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5876                                    EVT VT1, EVT VT2,
5877                                    SDValue Op1, SDValue Op2) {
5878   SDVTList VTs = getVTList(VT1, VT2);
5879   SDValue Ops[] = { Op1, Op2 };
5880   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5881 }
5882
5883 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5884                                    EVT VT1, EVT VT2,
5885                                    SDValue Op1, SDValue Op2,
5886                                    SDValue Op3) {
5887   SDVTList VTs = getVTList(VT1, VT2);
5888   SDValue Ops[] = { Op1, Op2, Op3 };
5889   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5890 }
5891
5892 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5893                                    EVT VT1, EVT VT2, EVT VT3,
5894                                    SDValue Op1, SDValue Op2,
5895                                    SDValue Op3) {
5896   SDVTList VTs = getVTList(VT1, VT2, VT3);
5897   SDValue Ops[] = { Op1, Op2, Op3 };
5898   return SelectNodeTo(N, MachineOpc, VTs, Ops);
5899 }
5900
5901 SDNode *SelectionDAG::SelectNodeTo(SDNode *N, unsigned MachineOpc,
5902                                    SDVTList VTs,ArrayRef<SDValue> Ops) {
5903   N = MorphNodeTo(N, ~MachineOpc, VTs, Ops);
5904   // Reset the NodeID to -1.
5905   N->setNodeId(-1);
5906   return N;
5907 }
5908
5909 /// UpdadeSDLocOnMergedSDNode - If the opt level is -O0 then it throws away
5910 /// the line number information on the merged node since it is not possible to
5911 /// preserve the information that operation is associated with multiple lines.
5912 /// This will make the debugger working better at -O0, were there is a higher
5913 /// probability having other instructions associated with that line.
5914 ///
5915 /// For IROrder, we keep the smaller of the two
5916 SDNode *SelectionDAG::UpdadeSDLocOnMergedSDNode(SDNode *N, SDLoc OLoc) {
5917   DebugLoc NLoc = N->getDebugLoc();
5918   if (NLoc && OptLevel == CodeGenOpt::None && OLoc.getDebugLoc() != NLoc) {
5919     N->setDebugLoc(DebugLoc());
5920   }
5921   unsigned Order = std::min(N->getIROrder(), OLoc.getIROrder());
5922   N->setIROrder(Order);
5923   return N;
5924 }
5925
5926 /// MorphNodeTo - This *mutates* the specified node to have the specified
5927 /// return type, opcode, and operands.
5928 ///
5929 /// Note that MorphNodeTo returns the resultant node.  If there is already a
5930 /// node of the specified opcode and operands, it returns that node instead of
5931 /// the current one.  Note that the SDLoc need not be the same.
5932 ///
5933 /// Using MorphNodeTo is faster than creating a new node and swapping it in
5934 /// with ReplaceAllUsesWith both because it often avoids allocating a new
5935 /// node, and because it doesn't require CSE recalculation for any of
5936 /// the node's users.
5937 ///
5938 /// However, note that MorphNodeTo recursively deletes dead nodes from the DAG.
5939 /// As a consequence it isn't appropriate to use from within the DAG combiner or
5940 /// the legalizer which maintain worklists that would need to be updated when
5941 /// deleting things.
5942 SDNode *SelectionDAG::MorphNodeTo(SDNode *N, unsigned Opc,
5943                                   SDVTList VTs, ArrayRef<SDValue> Ops) {
5944   unsigned NumOps = Ops.size();
5945   // If an identical node already exists, use it.
5946   void *IP = nullptr;
5947   if (VTs.VTs[VTs.NumVTs-1] != MVT::Glue) {
5948     FoldingSetNodeID ID;
5949     AddNodeIDNode(ID, Opc, VTs, Ops);
5950     if (SDNode *ON = FindNodeOrInsertPos(ID, N->getDebugLoc(), IP))
5951       return UpdadeSDLocOnMergedSDNode(ON, SDLoc(N));
5952   }
5953
5954   if (!RemoveNodeFromCSEMaps(N))
5955     IP = nullptr;
5956
5957   // Start the morphing.
5958   N->NodeType = Opc;
5959   N->ValueList = VTs.VTs;
5960   N->NumValues = VTs.NumVTs;
5961
5962   // Clear the operands list, updating used nodes to remove this from their
5963   // use list.  Keep track of any operands that become dead as a result.
5964   SmallPtrSet<SDNode*, 16> DeadNodeSet;
5965   for (SDNode::op_iterator I = N->op_begin(), E = N->op_end(); I != E; ) {
5966     SDUse &Use = *I++;
5967     SDNode *Used = Use.getNode();
5968     Use.set(SDValue());
5969     if (Used->use_empty())
5970       DeadNodeSet.insert(Used);
5971   }
5972
5973   if (MachineSDNode *MN = dyn_cast<MachineSDNode>(N)) {
5974     // Initialize the memory references information.
5975     MN->setMemRefs(nullptr, nullptr);
5976     // If NumOps is larger than the # of operands we can have in a
5977     // MachineSDNode, reallocate the operand list.
5978     if (NumOps > MN->NumOperands || !MN->OperandsNeedDelete) {
5979       if (MN->OperandsNeedDelete)
5980         delete[] MN->OperandList;
5981       if (NumOps > array_lengthof(MN->LocalOperands))
5982         // We're creating a final node that will live unmorphed for the
5983         // remainder of the current SelectionDAG iteration, so we can allocate
5984         // the operands directly out of a pool with no recycling metadata.
5985         MN->InitOperands(OperandAllocator.Allocate<SDUse>(NumOps),
5986                          Ops.data(), NumOps);
5987       else
5988         MN->InitOperands(MN->LocalOperands, Ops.data(), NumOps);
5989       MN->OperandsNeedDelete = false;
5990     } else
5991       MN->InitOperands(MN->OperandList, Ops.data(), NumOps);
5992   } else {
5993     // If NumOps is larger than the # of operands we currently have, reallocate
5994     // the operand list.
5995     if (NumOps > N->NumOperands) {
5996       if (N->OperandsNeedDelete)
5997         delete[] N->OperandList;
5998       N->InitOperands(new SDUse[NumOps], Ops.data(), NumOps);
5999       N->OperandsNeedDelete = true;
6000     } else
6001       N->InitOperands(N->OperandList, Ops.data(), NumOps);
6002   }
6003
6004   // Delete any nodes that are still dead after adding the uses for the
6005   // new operands.
6006   if (!DeadNodeSet.empty()) {
6007     SmallVector<SDNode *, 16> DeadNodes;
6008     for (SDNode *N : DeadNodeSet)
6009       if (N->use_empty())
6010         DeadNodes.push_back(N);
6011     RemoveDeadNodes(DeadNodes);
6012   }
6013
6014   if (IP)
6015     CSEMap.InsertNode(N, IP);   // Memoize the new node.
6016   return N;
6017 }
6018
6019
6020 /// getMachineNode - These are used for target selectors to create a new node
6021 /// with specified return type(s), MachineInstr opcode, and operands.
6022 ///
6023 /// Note that getMachineNode returns the resultant node.  If there is already a
6024 /// node of the specified opcode and operands, it returns that node instead of
6025 /// the current one.
6026 MachineSDNode *
6027 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT) {
6028   SDVTList VTs = getVTList(VT);
6029   return getMachineNode(Opcode, dl, VTs, None);
6030 }
6031
6032 MachineSDNode *
6033 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT, SDValue Op1) {
6034   SDVTList VTs = getVTList(VT);
6035   SDValue Ops[] = { Op1 };
6036   return getMachineNode(Opcode, dl, VTs, Ops);
6037 }
6038
6039 MachineSDNode *
6040 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT,
6041                              SDValue Op1, SDValue Op2) {
6042   SDVTList VTs = getVTList(VT);
6043   SDValue Ops[] = { Op1, Op2 };
6044   return getMachineNode(Opcode, dl, VTs, Ops);
6045 }
6046
6047 MachineSDNode *
6048 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT,
6049                              SDValue Op1, SDValue Op2, SDValue Op3) {
6050   SDVTList VTs = getVTList(VT);
6051   SDValue Ops[] = { Op1, Op2, Op3 };
6052   return getMachineNode(Opcode, dl, VTs, Ops);
6053 }
6054
6055 MachineSDNode *
6056 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT,
6057                              ArrayRef<SDValue> Ops) {
6058   SDVTList VTs = getVTList(VT);
6059   return getMachineNode(Opcode, dl, VTs, Ops);
6060 }
6061
6062 MachineSDNode *
6063 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT1, EVT VT2) {
6064   SDVTList VTs = getVTList(VT1, VT2);
6065   return getMachineNode(Opcode, dl, VTs, None);
6066 }
6067
6068 MachineSDNode *
6069 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6070                              EVT VT1, EVT VT2, SDValue Op1) {
6071   SDVTList VTs = getVTList(VT1, VT2);
6072   SDValue Ops[] = { Op1 };
6073   return getMachineNode(Opcode, dl, VTs, Ops);
6074 }
6075
6076 MachineSDNode *
6077 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6078                              EVT VT1, EVT VT2, SDValue Op1, SDValue Op2) {
6079   SDVTList VTs = getVTList(VT1, VT2);
6080   SDValue Ops[] = { Op1, Op2 };
6081   return getMachineNode(Opcode, dl, VTs, Ops);
6082 }
6083
6084 MachineSDNode *
6085 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6086                              EVT VT1, EVT VT2, SDValue Op1,
6087                              SDValue Op2, SDValue Op3) {
6088   SDVTList VTs = getVTList(VT1, VT2);
6089   SDValue Ops[] = { Op1, Op2, Op3 };
6090   return getMachineNode(Opcode, dl, VTs, Ops);
6091 }
6092
6093 MachineSDNode *
6094 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6095                              EVT VT1, EVT VT2,
6096                              ArrayRef<SDValue> Ops) {
6097   SDVTList VTs = getVTList(VT1, VT2);
6098   return getMachineNode(Opcode, dl, VTs, Ops);
6099 }
6100
6101 MachineSDNode *
6102 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6103                              EVT VT1, EVT VT2, EVT VT3,
6104                              SDValue Op1, SDValue Op2) {
6105   SDVTList VTs = getVTList(VT1, VT2, VT3);
6106   SDValue Ops[] = { Op1, Op2 };
6107   return getMachineNode(Opcode, dl, VTs, Ops);
6108 }
6109
6110 MachineSDNode *
6111 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6112                              EVT VT1, EVT VT2, EVT VT3,
6113                              SDValue Op1, SDValue Op2, SDValue Op3) {
6114   SDVTList VTs = getVTList(VT1, VT2, VT3);
6115   SDValue Ops[] = { Op1, Op2, Op3 };
6116   return getMachineNode(Opcode, dl, VTs, Ops);
6117 }
6118
6119 MachineSDNode *
6120 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6121                              EVT VT1, EVT VT2, EVT VT3,
6122                              ArrayRef<SDValue> Ops) {
6123   SDVTList VTs = getVTList(VT1, VT2, VT3);
6124   return getMachineNode(Opcode, dl, VTs, Ops);
6125 }
6126
6127 MachineSDNode *
6128 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl, EVT VT1,
6129                              EVT VT2, EVT VT3, EVT VT4,
6130                              ArrayRef<SDValue> Ops) {
6131   SDVTList VTs = getVTList(VT1, VT2, VT3, VT4);
6132   return getMachineNode(Opcode, dl, VTs, Ops);
6133 }
6134
6135 MachineSDNode *
6136 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc dl,
6137                              ArrayRef<EVT> ResultTys,
6138                              ArrayRef<SDValue> Ops) {
6139   SDVTList VTs = getVTList(ResultTys);
6140   return getMachineNode(Opcode, dl, VTs, Ops);
6141 }
6142
6143 MachineSDNode *
6144 SelectionDAG::getMachineNode(unsigned Opcode, SDLoc DL, SDVTList VTs,
6145                              ArrayRef<SDValue> OpsArray) {
6146   bool DoCSE = VTs.VTs[VTs.NumVTs-1] != MVT::Glue;
6147   MachineSDNode *N;
6148   void *IP = nullptr;
6149   const SDValue *Ops = OpsArray.data();
6150   unsigned NumOps = OpsArray.size();
6151
6152   if (DoCSE) {
6153     FoldingSetNodeID ID;
6154     AddNodeIDNode(ID, ~Opcode, VTs, OpsArray);
6155     IP = nullptr;
6156     if (SDNode *E = FindNodeOrInsertPos(ID, DL.getDebugLoc(), IP)) {
6157       return cast<MachineSDNode>(UpdadeSDLocOnMergedSDNode(E, DL));
6158     }
6159   }
6160
6161   // Allocate a new MachineSDNode.
6162   N = new (NodeAllocator) MachineSDNode(~Opcode, DL.getIROrder(),
6163                                         DL.getDebugLoc(), VTs);
6164
6165   // Initialize the operands list.
6166   if (NumOps > array_lengthof(N->LocalOperands))
6167     // We're creating a final node that will live unmorphed for the
6168     // remainder of the current SelectionDAG iteration, so we can allocate
6169     // the operands directly out of a pool with no recycling metadata.
6170     N->InitOperands(OperandAllocator.Allocate<SDUse>(NumOps),
6171                     Ops, NumOps);
6172   else
6173     N->InitOperands(N->LocalOperands, Ops, NumOps);
6174   N->OperandsNeedDelete = false;
6175
6176   if (DoCSE)
6177     CSEMap.InsertNode(N, IP);
6178
6179   InsertNode(N);
6180   return N;
6181 }
6182
6183 /// getTargetExtractSubreg - A convenience function for creating
6184 /// TargetOpcode::EXTRACT_SUBREG nodes.
6185 SDValue
6186 SelectionDAG::getTargetExtractSubreg(int SRIdx, SDLoc DL, EVT VT,
6187                                      SDValue Operand) {
6188   SDValue SRIdxVal = getTargetConstant(SRIdx, DL, MVT::i32);
6189   SDNode *Subreg = getMachineNode(TargetOpcode::EXTRACT_SUBREG, DL,
6190                                   VT, Operand, SRIdxVal);
6191   return SDValue(Subreg, 0);
6192 }
6193
6194 /// getTargetInsertSubreg - A convenience function for creating
6195 /// TargetOpcode::INSERT_SUBREG nodes.
6196 SDValue
6197 SelectionDAG::getTargetInsertSubreg(int SRIdx, SDLoc DL, EVT VT,
6198                                     SDValue Operand, SDValue Subreg) {
6199   SDValue SRIdxVal = getTargetConstant(SRIdx, DL, MVT::i32);
6200   SDNode *Result = getMachineNode(TargetOpcode::INSERT_SUBREG, DL,
6201                                   VT, Operand, Subreg, SRIdxVal);
6202   return SDValue(Result, 0);
6203 }
6204
6205 /// getNodeIfExists - Get the specified node if it's already available, or
6206 /// else return NULL.
6207 SDNode *SelectionDAG::getNodeIfExists(unsigned Opcode, SDVTList VTList,
6208                                       ArrayRef<SDValue> Ops,
6209                                       const SDNodeFlags *Flags) {
6210   if (VTList.VTs[VTList.NumVTs - 1] != MVT::Glue) {
6211     FoldingSetNodeID ID;
6212     AddNodeIDNode(ID, Opcode, VTList, Ops);
6213     AddNodeIDFlags(ID, Opcode, Flags);
6214     void *IP = nullptr;
6215     if (SDNode *E = FindNodeOrInsertPos(ID, DebugLoc(), IP))
6216       return E;
6217   }
6218   return nullptr;
6219 }
6220
6221 /// getDbgValue - Creates a SDDbgValue node.
6222 ///
6223 /// SDNode
6224 SDDbgValue *SelectionDAG::getDbgValue(MDNode *Var, MDNode *Expr, SDNode *N,
6225                                       unsigned R, bool IsIndirect, uint64_t Off,
6226                                       DebugLoc DL, unsigned O) {
6227   assert(cast<DILocalVariable>(Var)->isValidLocationForIntrinsic(DL) &&
6228          "Expected inlined-at fields to agree");
6229   return new (DbgInfo->getAlloc())
6230       SDDbgValue(Var, Expr, N, R, IsIndirect, Off, DL, O);
6231 }
6232
6233 /// Constant
6234 SDDbgValue *SelectionDAG::getConstantDbgValue(MDNode *Var, MDNode *Expr,
6235                                               const Value *C, uint64_t Off,
6236                                               DebugLoc DL, unsigned O) {
6237   assert(cast<DILocalVariable>(Var)->isValidLocationForIntrinsic(DL) &&
6238          "Expected inlined-at fields to agree");
6239   return new (DbgInfo->getAlloc()) SDDbgValue(Var, Expr, C, Off, DL, O);
6240 }
6241
6242 /// FrameIndex
6243 SDDbgValue *SelectionDAG::getFrameIndexDbgValue(MDNode *Var, MDNode *Expr,
6244                                                 unsigned FI, uint64_t Off,
6245                                                 DebugLoc DL, unsigned O) {
6246   assert(cast<DILocalVariable>(Var)->isValidLocationForIntrinsic(DL) &&
6247          "Expected inlined-at fields to agree");
6248   return new (DbgInfo->getAlloc()) SDDbgValue(Var, Expr, FI, Off, DL, O);
6249 }
6250
6251 namespace {
6252
6253 /// RAUWUpdateListener - Helper for ReplaceAllUsesWith - When the node
6254 /// pointed to by a use iterator is deleted, increment the use iterator
6255 /// so that it doesn't dangle.
6256 ///
6257 class RAUWUpdateListener : public SelectionDAG::DAGUpdateListener {
6258   SDNode::use_iterator &UI;
6259   SDNode::use_iterator &UE;
6260
6261   void NodeDeleted(SDNode *N, SDNode *E) override {
6262     // Increment the iterator as needed.
6263     while (UI != UE && N == *UI)
6264       ++UI;
6265   }
6266
6267 public:
6268   RAUWUpdateListener(SelectionDAG &d,
6269                      SDNode::use_iterator &ui,
6270                      SDNode::use_iterator &ue)
6271     : SelectionDAG::DAGUpdateListener(d), UI(ui), UE(ue) {}
6272 };
6273
6274 }
6275
6276 /// ReplaceAllUsesWith - Modify anything using 'From' to use 'To' instead.
6277 /// This can cause recursive merging of nodes in the DAG.
6278 ///
6279 /// This version assumes From has a single result value.
6280 ///
6281 void SelectionDAG::ReplaceAllUsesWith(SDValue FromN, SDValue To) {
6282   SDNode *From = FromN.getNode();
6283   assert(From->getNumValues() == 1 && FromN.getResNo() == 0 &&
6284          "Cannot replace with this method!");
6285   assert(From != To.getNode() && "Cannot replace uses of with self");
6286
6287   // Iterate over all the existing uses of From. New uses will be added
6288   // to the beginning of the use list, which we avoid visiting.
6289   // This specifically avoids visiting uses of From that arise while the
6290   // replacement is happening, because any such uses would be the result
6291   // of CSE: If an existing node looks like From after one of its operands
6292   // is replaced by To, we don't want to replace of all its users with To
6293   // too. See PR3018 for more info.
6294   SDNode::use_iterator UI = From->use_begin(), UE = From->use_end();
6295   RAUWUpdateListener Listener(*this, UI, UE);
6296   while (UI != UE) {
6297     SDNode *User = *UI;
6298
6299     // This node is about to morph, remove its old self from the CSE maps.
6300     RemoveNodeFromCSEMaps(User);
6301
6302     // A user can appear in a use list multiple times, and when this
6303     // happens the uses are usually next to each other in the list.
6304     // To help reduce the number of CSE recomputations, process all
6305     // the uses of this user that we can find this way.
6306     do {
6307       SDUse &Use = UI.getUse();
6308       ++UI;
6309       Use.set(To);
6310     } while (UI != UE && *UI == User);
6311
6312     // Now that we have modified User, add it back to the CSE maps.  If it
6313     // already exists there, recursively merge the results together.
6314     AddModifiedNodeToCSEMaps(User);
6315   }
6316
6317   // If we just RAUW'd the root, take note.
6318   if (FromN == getRoot())
6319     setRoot(To);
6320 }
6321
6322 /// ReplaceAllUsesWith - Modify anything using 'From' to use 'To' instead.
6323 /// This can cause recursive merging of nodes in the DAG.
6324 ///
6325 /// This version assumes that for each value of From, there is a
6326 /// corresponding value in To in the same position with the same type.
6327 ///
6328 void SelectionDAG::ReplaceAllUsesWith(SDNode *From, SDNode *To) {
6329 #ifndef NDEBUG
6330   for (unsigned i = 0, e = From->getNumValues(); i != e; ++i)
6331     assert((!From->hasAnyUseOfValue(i) ||
6332             From->getValueType(i) == To->getValueType(i)) &&
6333            "Cannot use this version of ReplaceAllUsesWith!");
6334 #endif
6335
6336   // Handle the trivial case.
6337   if (From == To)
6338     return;
6339
6340   // Iterate over just the existing users of From. See the comments in
6341   // the ReplaceAllUsesWith above.
6342   SDNode::use_iterator UI = From->use_begin(), UE = From->use_end();
6343   RAUWUpdateListener Listener(*this, UI, UE);
6344   while (UI != UE) {
6345     SDNode *User = *UI;
6346
6347     // This node is about to morph, remove its old self from the CSE maps.
6348     RemoveNodeFromCSEMaps(User);
6349
6350     // A user can appear in a use list multiple times, and when this
6351     // happens the uses are usually next to each other in the list.
6352     // To help reduce the number of CSE recomputations, process all
6353     // the uses of this user that we can find this way.
6354     do {
6355       SDUse &Use = UI.getUse();
6356       ++UI;
6357       Use.setNode(To);
6358     } while (UI != UE && *UI == User);
6359
6360     // Now that we have modified User, add it back to the CSE maps.  If it
6361     // already exists there, recursively merge the results together.
6362     AddModifiedNodeToCSEMaps(User);
6363   }
6364
6365   // If we just RAUW'd the root, take note.
6366   if (From == getRoot().getNode())
6367     setRoot(SDValue(To, getRoot().getResNo()));
6368 }
6369
6370 /// ReplaceAllUsesWith - Modify anything using 'From' to use 'To' instead.
6371 /// This can cause recursive merging of nodes in the DAG.
6372 ///
6373 /// This version can replace From with any result values.  To must match the
6374 /// number and types of values returned by From.
6375 void SelectionDAG::ReplaceAllUsesWith(SDNode *From, const SDValue *To) {
6376   if (From->getNumValues() == 1)  // Handle the simple case efficiently.
6377     return ReplaceAllUsesWith(SDValue(From, 0), To[0]);
6378
6379   // Iterate over just the existing users of From. See the comments in
6380   // the ReplaceAllUsesWith above.
6381   SDNode::use_iterator UI = From->use_begin(), UE = From->use_end();
6382   RAUWUpdateListener Listener(*this, UI, UE);
6383   while (UI != UE) {
6384     SDNode *User = *UI;
6385
6386     // This node is about to morph, remove its old self from the CSE maps.
6387     RemoveNodeFromCSEMaps(User);
6388
6389     // A user can appear in a use list multiple times, and when this
6390     // happens the uses are usually next to each other in the list.
6391     // To help reduce the number of CSE recomputations, process all
6392     // the uses of this user that we can find this way.
6393     do {
6394       SDUse &Use = UI.getUse();
6395       const SDValue &ToOp = To[Use.getResNo()];
6396       ++UI;
6397       Use.set(ToOp);
6398     } while (UI != UE && *UI == User);
6399
6400     // Now that we have modified User, add it back to the CSE maps.  If it
6401     // already exists there, recursively merge the results together.
6402     AddModifiedNodeToCSEMaps(User);
6403   }
6404
6405   // If we just RAUW'd the root, take note.
6406   if (From == getRoot().getNode())
6407     setRoot(SDValue(To[getRoot().getResNo()]));
6408 }
6409
6410 /// ReplaceAllUsesOfValueWith - Replace any uses of From with To, leaving
6411 /// uses of other values produced by From.getNode() alone.  The Deleted
6412 /// vector is handled the same way as for ReplaceAllUsesWith.
6413 void SelectionDAG::ReplaceAllUsesOfValueWith(SDValue From, SDValue To){
6414   // Handle the really simple, really trivial case efficiently.
6415   if (From == To) return;
6416
6417   // Handle the simple, trivial, case efficiently.
6418   if (From.getNode()->getNumValues() == 1) {
6419     ReplaceAllUsesWith(From, To);
6420     return;
6421   }
6422
6423   // Iterate over just the existing users of From. See the comments in
6424   // the ReplaceAllUsesWith above.
6425   SDNode::use_iterator UI = From.getNode()->use_begin(),
6426                        UE = From.getNode()->use_end();
6427   RAUWUpdateListener Listener(*this, UI, UE);
6428   while (UI != UE) {
6429     SDNode *User = *UI;
6430     bool UserRemovedFromCSEMaps = false;
6431
6432     // A user can appear in a use list multiple times, and when this
6433     // happens the uses are usually next to each other in the list.
6434     // To help reduce the number of CSE recomputations, process all
6435     // the uses of this user that we can find this way.
6436     do {
6437       SDUse &Use = UI.getUse();
6438
6439       // Skip uses of different values from the same node.
6440       if (Use.getResNo() != From.getResNo()) {
6441         ++UI;
6442         continue;
6443       }
6444
6445       // If this node hasn't been modified yet, it's still in the CSE maps,
6446       // so remove its old self from the CSE maps.
6447       if (!UserRemovedFromCSEMaps) {
6448         RemoveNodeFromCSEMaps(User);
6449         UserRemovedFromCSEMaps = true;
6450       }
6451
6452       ++UI;
6453       Use.set(To);
6454     } while (UI != UE && *UI == User);
6455
6456     // We are iterating over all uses of the From node, so if a use
6457     // doesn't use the specific value, no changes are made.
6458     if (!UserRemovedFromCSEMaps)
6459       continue;
6460
6461     // Now that we have modified User, add it back to the CSE maps.  If it
6462     // already exists there, recursively merge the results together.
6463     AddModifiedNodeToCSEMaps(User);
6464   }
6465
6466   // If we just RAUW'd the root, take note.
6467   if (From == getRoot())
6468     setRoot(To);
6469 }
6470
6471 namespace {
6472   /// UseMemo - This class is used by SelectionDAG::ReplaceAllUsesOfValuesWith
6473   /// to record information about a use.
6474   struct UseMemo {
6475     SDNode *User;
6476     unsigned Index;
6477     SDUse *Use;
6478   };
6479
6480   /// operator< - Sort Memos by User.
6481   bool operator<(const UseMemo &L, const UseMemo &R) {
6482     return (intptr_t)L.User < (intptr_t)R.User;
6483   }
6484 }
6485
6486 /// ReplaceAllUsesOfValuesWith - Replace any uses of From with To, leaving
6487 /// uses of other values produced by From.getNode() alone.  The same value
6488 /// may appear in both the From and To list.  The Deleted vector is
6489 /// handled the same way as for ReplaceAllUsesWith.
6490 void SelectionDAG::ReplaceAllUsesOfValuesWith(const SDValue *From,
6491                                               const SDValue *To,
6492                                               unsigned Num){
6493   // Handle the simple, trivial case efficiently.
6494   if (Num == 1)
6495     return ReplaceAllUsesOfValueWith(*From, *To);
6496
6497   // Read up all the uses and make records of them. This helps
6498   // processing new uses that are introduced during the
6499   // replacement process.
6500   SmallVector<UseMemo, 4> Uses;
6501   for (unsigned i = 0; i != Num; ++i) {
6502     unsigned FromResNo = From[i].getResNo();
6503     SDNode *FromNode = From[i].getNode();
6504     for (SDNode::use_iterator UI = FromNode->use_begin(),
6505          E = FromNode->use_end(); UI != E; ++UI) {
6506       SDUse &Use = UI.getUse();
6507       if (Use.getResNo() == FromResNo) {
6508         UseMemo Memo = { *UI, i, &Use };
6509         Uses.push_back(Memo);
6510       }
6511     }
6512   }
6513
6514   // Sort the uses, so that all the uses from a given User are together.
6515   std::sort(Uses.begin(), Uses.end());
6516
6517   for (unsigned UseIndex = 0, UseIndexEnd = Uses.size();
6518        UseIndex != UseIndexEnd; ) {
6519     // We know that this user uses some value of From.  If it is the right
6520     // value, update it.
6521     SDNode *User = Uses[UseIndex].User;
6522
6523     // This node is about to morph, remove its old self from the CSE maps.
6524     RemoveNodeFromCSEMaps(User);
6525
6526     // The Uses array is sorted, so all the uses for a given User
6527     // are next to each other in the list.
6528     // To help reduce the number of CSE recomputations, process all
6529     // the uses of this user that we can find this way.
6530     do {
6531       unsigned i = Uses[UseIndex].Index;
6532       SDUse &Use = *Uses[UseIndex].Use;
6533       ++UseIndex;
6534
6535       Use.set(To[i]);
6536     } while (UseIndex != UseIndexEnd && Uses[UseIndex].User == User);
6537
6538     // Now that we have modified User, add it back to the CSE maps.  If it
6539     // already exists there, recursively merge the results together.
6540     AddModifiedNodeToCSEMaps(User);
6541   }
6542 }
6543
6544 /// AssignTopologicalOrder - Assign a unique node id for each node in the DAG
6545 /// based on their topological order. It returns the maximum id and a vector
6546 /// of the SDNodes* in assigned order by reference.
6547 unsigned SelectionDAG::AssignTopologicalOrder() {
6548
6549   unsigned DAGSize = 0;
6550
6551   // SortedPos tracks the progress of the algorithm. Nodes before it are
6552   // sorted, nodes after it are unsorted. When the algorithm completes
6553   // it is at the end of the list.
6554   allnodes_iterator SortedPos = allnodes_begin();
6555
6556   // Visit all the nodes. Move nodes with no operands to the front of
6557   // the list immediately. Annotate nodes that do have operands with their
6558   // operand count. Before we do this, the Node Id fields of the nodes
6559   // may contain arbitrary values. After, the Node Id fields for nodes
6560   // before SortedPos will contain the topological sort index, and the
6561   // Node Id fields for nodes At SortedPos and after will contain the
6562   // count of outstanding operands.
6563   for (allnodes_iterator I = allnodes_begin(),E = allnodes_end(); I != E; ) {
6564     SDNode *N = &*I++;
6565     checkForCycles(N, this);
6566     unsigned Degree = N->getNumOperands();
6567     if (Degree == 0) {
6568       // A node with no uses, add it to the result array immediately.
6569       N->setNodeId(DAGSize++);
6570       allnodes_iterator Q(N);
6571       if (Q != SortedPos)
6572         SortedPos = AllNodes.insert(SortedPos, AllNodes.remove(Q));
6573       assert(SortedPos != AllNodes.end() && "Overran node list");
6574       ++SortedPos;
6575     } else {
6576       // Temporarily use the Node Id as scratch space for the degree count.
6577       N->setNodeId(Degree);
6578     }
6579   }
6580
6581   // Visit all the nodes. As we iterate, move nodes into sorted order,
6582   // such that by the time the end is reached all nodes will be sorted.
6583   for (SDNode &Node : allnodes()) {
6584     SDNode *N = &Node;
6585     checkForCycles(N, this);
6586     // N is in sorted position, so all its uses have one less operand
6587     // that needs to be sorted.
6588     for (SDNode::use_iterator UI = N->use_begin(), UE = N->use_end();
6589          UI != UE; ++UI) {
6590       SDNode *P = *UI;
6591       unsigned Degree = P->getNodeId();
6592       assert(Degree != 0 && "Invalid node degree");
6593       --Degree;
6594       if (Degree == 0) {
6595         // All of P's operands are sorted, so P may sorted now.
6596         P->setNodeId(DAGSize++);
6597         if (P != SortedPos)
6598           SortedPos = AllNodes.insert(SortedPos, AllNodes.remove(P));
6599         assert(SortedPos != AllNodes.end() && "Overran node list");
6600         ++SortedPos;
6601       } else {
6602         // Update P's outstanding operand count.
6603         P->setNodeId(Degree);
6604       }
6605     }
6606     if (&Node == SortedPos) {
6607 #ifndef NDEBUG
6608       allnodes_iterator I(N);
6609       SDNode *S = &*++I;
6610       dbgs() << "Overran sorted position:\n";
6611       S->dumprFull(this); dbgs() << "\n";
6612       dbgs() << "Checking if this is due to cycles\n";
6613       checkForCycles(this, true);
6614 #endif
6615       llvm_unreachable(nullptr);
6616     }
6617   }
6618
6619   assert(SortedPos == AllNodes.end() &&
6620          "Topological sort incomplete!");
6621   assert(AllNodes.front().getOpcode() == ISD::EntryToken &&
6622          "First node in topological sort is not the entry token!");
6623   assert(AllNodes.front().getNodeId() == 0 &&
6624          "First node in topological sort has non-zero id!");
6625   assert(AllNodes.front().getNumOperands() == 0 &&
6626          "First node in topological sort has operands!");
6627   assert(AllNodes.back().getNodeId() == (int)DAGSize-1 &&
6628          "Last node in topologic sort has unexpected id!");
6629   assert(AllNodes.back().use_empty() &&
6630          "Last node in topologic sort has users!");
6631   assert(DAGSize == allnodes_size() && "Node count mismatch!");
6632   return DAGSize;
6633 }
6634
6635 /// AddDbgValue - Add a dbg_value SDNode. If SD is non-null that means the
6636 /// value is produced by SD.
6637 void SelectionDAG::AddDbgValue(SDDbgValue *DB, SDNode *SD, bool isParameter) {
6638   if (SD) {
6639     assert(DbgInfo->getSDDbgValues(SD).empty() || SD->getHasDebugValue());
6640     SD->setHasDebugValue(true);
6641   }
6642   DbgInfo->add(DB, SD, isParameter);
6643 }
6644
6645 /// TransferDbgValues - Transfer SDDbgValues.
6646 void SelectionDAG::TransferDbgValues(SDValue From, SDValue To) {
6647   if (From == To || !From.getNode()->getHasDebugValue())
6648     return;
6649   SDNode *FromNode = From.getNode();
6650   SDNode *ToNode = To.getNode();
6651   ArrayRef<SDDbgValue *> DVs = GetDbgValues(FromNode);
6652   SmallVector<SDDbgValue *, 2> ClonedDVs;
6653   for (ArrayRef<SDDbgValue *>::iterator I = DVs.begin(), E = DVs.end();
6654        I != E; ++I) {
6655     SDDbgValue *Dbg = *I;
6656     if (Dbg->getKind() == SDDbgValue::SDNODE) {
6657       SDDbgValue *Clone =
6658           getDbgValue(Dbg->getVariable(), Dbg->getExpression(), ToNode,
6659                       To.getResNo(), Dbg->isIndirect(), Dbg->getOffset(),
6660                       Dbg->getDebugLoc(), Dbg->getOrder());
6661       ClonedDVs.push_back(Clone);
6662     }
6663   }
6664   for (SmallVectorImpl<SDDbgValue *>::iterator I = ClonedDVs.begin(),
6665          E = ClonedDVs.end(); I != E; ++I)
6666     AddDbgValue(*I, ToNode, false);
6667 }
6668
6669 //===----------------------------------------------------------------------===//
6670 //                              SDNode Class
6671 //===----------------------------------------------------------------------===//
6672
6673 bool llvm::isNullConstant(SDValue V) {
6674   ConstantSDNode *Const = dyn_cast<ConstantSDNode>(V);
6675   return Const != nullptr && Const->isNullValue();
6676 }
6677
6678 bool llvm::isNullFPConstant(SDValue V) {
6679   ConstantFPSDNode *Const = dyn_cast<ConstantFPSDNode>(V);
6680   return Const != nullptr && Const->isZero() && !Const->isNegative();
6681 }
6682
6683 bool llvm::isAllOnesConstant(SDValue V) {
6684   ConstantSDNode *Const = dyn_cast<ConstantSDNode>(V);
6685   return Const != nullptr && Const->isAllOnesValue();
6686 }
6687
6688 bool llvm::isOneConstant(SDValue V) {
6689   ConstantSDNode *Const = dyn_cast<ConstantSDNode>(V);
6690   return Const != nullptr && Const->isOne();
6691 }
6692
6693 HandleSDNode::~HandleSDNode() {
6694   DropOperands();
6695 }
6696
6697 GlobalAddressSDNode::GlobalAddressSDNode(unsigned Opc, unsigned Order,
6698                                          DebugLoc DL, const GlobalValue *GA,
6699                                          EVT VT, int64_t o, unsigned char TF)
6700   : SDNode(Opc, Order, DL, getSDVTList(VT)), Offset(o), TargetFlags(TF) {
6701   TheGlobal = GA;
6702 }
6703
6704 AddrSpaceCastSDNode::AddrSpaceCastSDNode(unsigned Order, DebugLoc dl, EVT VT,
6705                                          SDValue X, unsigned SrcAS,
6706                                          unsigned DestAS)
6707  : UnarySDNode(ISD::ADDRSPACECAST, Order, dl, getSDVTList(VT), X),
6708    SrcAddrSpace(SrcAS), DestAddrSpace(DestAS) {}
6709
6710 MemSDNode::MemSDNode(unsigned Opc, unsigned Order, DebugLoc dl, SDVTList VTs,
6711                      EVT memvt, MachineMemOperand *mmo)
6712  : SDNode(Opc, Order, dl, VTs), MemoryVT(memvt), MMO(mmo) {
6713   SubclassData = encodeMemSDNodeFlags(0, ISD::UNINDEXED, MMO->isVolatile(),
6714                                       MMO->isNonTemporal(), MMO->isInvariant());
6715   assert(isVolatile() == MMO->isVolatile() && "Volatile encoding error!");
6716   assert(isNonTemporal() == MMO->isNonTemporal() &&
6717          "Non-temporal encoding error!");
6718   // We check here that the size of the memory operand fits within the size of
6719   // the MMO. This is because the MMO might indicate only a possible address
6720   // range instead of specifying the affected memory addresses precisely.
6721   assert(memvt.getStoreSize() <= MMO->getSize() && "Size mismatch!");
6722 }
6723
6724 MemSDNode::MemSDNode(unsigned Opc, unsigned Order, DebugLoc dl, SDVTList VTs,
6725                      ArrayRef<SDValue> Ops, EVT memvt, MachineMemOperand *mmo)
6726    : SDNode(Opc, Order, dl, VTs, Ops),
6727      MemoryVT(memvt), MMO(mmo) {
6728   SubclassData = encodeMemSDNodeFlags(0, ISD::UNINDEXED, MMO->isVolatile(),
6729                                       MMO->isNonTemporal(), MMO->isInvariant());
6730   assert(isVolatile() == MMO->isVolatile() && "Volatile encoding error!");
6731   assert(memvt.getStoreSize() <= MMO->getSize() && "Size mismatch!");
6732 }
6733
6734 /// Profile - Gather unique data for the node.
6735 ///
6736 void SDNode::Profile(FoldingSetNodeID &ID) const {
6737   AddNodeIDNode(ID, this);
6738 }
6739
6740 namespace {
6741   struct EVTArray {
6742     std::vector<EVT> VTs;
6743
6744     EVTArray() {
6745       VTs.reserve(MVT::LAST_VALUETYPE);
6746       for (unsigned i = 0; i < MVT::LAST_VALUETYPE; ++i)
6747         VTs.push_back(MVT((MVT::SimpleValueType)i));
6748     }
6749   };
6750 }
6751
6752 static ManagedStatic<std::set<EVT, EVT::compareRawBits> > EVTs;
6753 static ManagedStatic<EVTArray> SimpleVTArray;
6754 static ManagedStatic<sys::SmartMutex<true> > VTMutex;
6755
6756 /// getValueTypeList - Return a pointer to the specified value type.
6757 ///
6758 const EVT *SDNode::getValueTypeList(EVT VT) {
6759   if (VT.isExtended()) {
6760     sys::SmartScopedLock<true> Lock(*VTMutex);
6761     return &(*EVTs->insert(VT).first);
6762   } else {
6763     assert(VT.getSimpleVT() < MVT::LAST_VALUETYPE &&
6764            "Value type out of range!");
6765     return &SimpleVTArray->VTs[VT.getSimpleVT().SimpleTy];
6766   }
6767 }
6768
6769 /// hasNUsesOfValue - Return true if there are exactly NUSES uses of the
6770 /// indicated value.  This method ignores uses of other values defined by this
6771 /// operation.
6772 bool SDNode::hasNUsesOfValue(unsigned NUses, unsigned Value) const {
6773   assert(Value < getNumValues() && "Bad value!");
6774
6775   // TODO: Only iterate over uses of a given value of the node
6776   for (SDNode::use_iterator UI = use_begin(), E = use_end(); UI != E; ++UI) {
6777     if (UI.getUse().getResNo() == Value) {
6778       if (NUses == 0)
6779         return false;
6780       --NUses;
6781     }
6782   }
6783
6784   // Found exactly the right number of uses?
6785   return NUses == 0;
6786 }
6787
6788
6789 /// hasAnyUseOfValue - Return true if there are any use of the indicated
6790 /// value. This method ignores uses of other values defined by this operation.
6791 bool SDNode::hasAnyUseOfValue(unsigned Value) const {
6792   assert(Value < getNumValues() && "Bad value!");
6793
6794   for (SDNode::use_iterator UI = use_begin(), E = use_end(); UI != E; ++UI)
6795     if (UI.getUse().getResNo() == Value)
6796       return true;
6797
6798   return false;
6799 }
6800
6801
6802 /// isOnlyUserOf - Return true if this node is the only use of N.
6803 ///
6804 bool SDNode::isOnlyUserOf(const SDNode *N) const {
6805   bool Seen = false;
6806   for (SDNode::use_iterator I = N->use_begin(), E = N->use_end(); I != E; ++I) {
6807     SDNode *User = *I;
6808     if (User == this)
6809       Seen = true;
6810     else
6811       return false;
6812   }
6813
6814   return Seen;
6815 }
6816
6817 /// isOperand - Return true if this node is an operand of N.
6818 ///
6819 bool SDValue::isOperandOf(const SDNode *N) const {
6820   for (const SDValue &Op : N->op_values())
6821     if (*this == Op)
6822       return true;
6823   return false;
6824 }
6825
6826 bool SDNode::isOperandOf(const SDNode *N) const {
6827   for (const SDValue &Op : N->op_values())
6828     if (this == Op.getNode())
6829       return true;
6830   return false;
6831 }
6832
6833 /// reachesChainWithoutSideEffects - Return true if this operand (which must
6834 /// be a chain) reaches the specified operand without crossing any
6835 /// side-effecting instructions on any chain path.  In practice, this looks
6836 /// through token factors and non-volatile loads.  In order to remain efficient,
6837 /// this only looks a couple of nodes in, it does not do an exhaustive search.
6838 bool SDValue::reachesChainWithoutSideEffects(SDValue Dest,
6839                                                unsigned Depth) const {
6840   if (*this == Dest) return true;
6841
6842   // Don't search too deeply, we just want to be able to see through
6843   // TokenFactor's etc.
6844   if (Depth == 0) return false;
6845
6846   // If this is a token factor, all inputs to the TF happen in parallel.  If any
6847   // of the operands of the TF does not reach dest, then we cannot do the xform.
6848   if (getOpcode() == ISD::TokenFactor) {
6849     for (unsigned i = 0, e = getNumOperands(); i != e; ++i)
6850       if (!getOperand(i).reachesChainWithoutSideEffects(Dest, Depth-1))
6851         return false;
6852     return true;
6853   }
6854
6855   // Loads don't have side effects, look through them.
6856   if (LoadSDNode *Ld = dyn_cast<LoadSDNode>(*this)) {
6857     if (!Ld->isVolatile())
6858       return Ld->getChain().reachesChainWithoutSideEffects(Dest, Depth-1);
6859   }
6860   return false;
6861 }
6862
6863 /// hasPredecessor - Return true if N is a predecessor of this node.
6864 /// N is either an operand of this node, or can be reached by recursively
6865 /// traversing up the operands.
6866 /// NOTE: This is an expensive method. Use it carefully.
6867 bool SDNode::hasPredecessor(const SDNode *N) const {
6868   SmallPtrSet<const SDNode *, 32> Visited;
6869   SmallVector<const SDNode *, 16> Worklist;
6870   return hasPredecessorHelper(N, Visited, Worklist);
6871 }
6872
6873 bool
6874 SDNode::hasPredecessorHelper(const SDNode *N,
6875                              SmallPtrSetImpl<const SDNode *> &Visited,
6876                              SmallVectorImpl<const SDNode *> &Worklist) const {
6877   if (Visited.empty()) {
6878     Worklist.push_back(this);
6879   } else {
6880     // Take a look in the visited set. If we've already encountered this node
6881     // we needn't search further.
6882     if (Visited.count(N))
6883       return true;
6884   }
6885
6886   // Haven't visited N yet. Continue the search.
6887   while (!Worklist.empty()) {
6888     const SDNode *M = Worklist.pop_back_val();
6889     for (const SDValue &OpV : M->op_values()) {
6890       SDNode *Op = OpV.getNode();
6891       if (Visited.insert(Op).second)
6892         Worklist.push_back(Op);
6893       if (Op == N)
6894         return true;
6895     }
6896   }
6897
6898   return false;
6899 }
6900
6901 uint64_t SDNode::getConstantOperandVal(unsigned Num) const {
6902   assert(Num < NumOperands && "Invalid child # of SDNode!");
6903   return cast<ConstantSDNode>(OperandList[Num])->getZExtValue();
6904 }
6905
6906 const SDNodeFlags *SDNode::getFlags() const {
6907   if (auto *FlagsNode = dyn_cast<BinaryWithFlagsSDNode>(this))
6908     return &FlagsNode->Flags;
6909   return nullptr;
6910 }
6911
6912 SDValue SelectionDAG::UnrollVectorOp(SDNode *N, unsigned ResNE) {
6913   assert(N->getNumValues() == 1 &&
6914          "Can't unroll a vector with multiple results!");
6915
6916   EVT VT = N->getValueType(0);
6917   unsigned NE = VT.getVectorNumElements();
6918   EVT EltVT = VT.getVectorElementType();
6919   SDLoc dl(N);
6920
6921   SmallVector<SDValue, 8> Scalars;
6922   SmallVector<SDValue, 4> Operands(N->getNumOperands());
6923
6924   // If ResNE is 0, fully unroll the vector op.
6925   if (ResNE == 0)
6926     ResNE = NE;
6927   else if (NE > ResNE)
6928     NE = ResNE;
6929
6930   unsigned i;
6931   for (i= 0; i != NE; ++i) {
6932     for (unsigned j = 0, e = N->getNumOperands(); j != e; ++j) {
6933       SDValue Operand = N->getOperand(j);
6934       EVT OperandVT = Operand.getValueType();
6935       if (OperandVT.isVector()) {
6936         // A vector operand; extract a single element.
6937         EVT OperandEltVT = OperandVT.getVectorElementType();
6938         Operands[j] =
6939             getNode(ISD::EXTRACT_VECTOR_ELT, dl, OperandEltVT, Operand,
6940                     getConstant(i, dl, TLI->getVectorIdxTy(getDataLayout())));
6941       } else {
6942         // A scalar operand; just use it as is.
6943         Operands[j] = Operand;
6944       }
6945     }
6946
6947     switch (N->getOpcode()) {
6948     default: {
6949       Scalars.push_back(getNode(N->getOpcode(), dl, EltVT, Operands,
6950                                 N->getFlags()));
6951       break;
6952     }
6953     case ISD::VSELECT:
6954       Scalars.push_back(getNode(ISD::SELECT, dl, EltVT, Operands));
6955       break;
6956     case ISD::SHL:
6957     case ISD::SRA:
6958     case ISD::SRL:
6959     case ISD::ROTL:
6960     case ISD::ROTR:
6961       Scalars.push_back(getNode(N->getOpcode(), dl, EltVT, Operands[0],
6962                                getShiftAmountOperand(Operands[0].getValueType(),
6963                                                      Operands[1])));
6964       break;
6965     case ISD::SIGN_EXTEND_INREG:
6966     case ISD::FP_ROUND_INREG: {
6967       EVT ExtVT = cast<VTSDNode>(Operands[1])->getVT().getVectorElementType();
6968       Scalars.push_back(getNode(N->getOpcode(), dl, EltVT,
6969                                 Operands[0],
6970                                 getValueType(ExtVT)));
6971     }
6972     }
6973   }
6974
6975   for (; i < ResNE; ++i)
6976     Scalars.push_back(getUNDEF(EltVT));
6977
6978   return getNode(ISD::BUILD_VECTOR, dl,
6979                  EVT::getVectorVT(*getContext(), EltVT, ResNE), Scalars);
6980 }
6981
6982
6983 /// isConsecutiveLoad - Return true if LD is loading 'Bytes' bytes from a
6984 /// location that is 'Dist' units away from the location that the 'Base' load
6985 /// is loading from.
6986 bool SelectionDAG::isConsecutiveLoad(LoadSDNode *LD, LoadSDNode *Base,
6987                                      unsigned Bytes, int Dist) const {
6988   if (LD->getChain() != Base->getChain())
6989     return false;
6990   EVT VT = LD->getValueType(0);
6991   if (VT.getSizeInBits() / 8 != Bytes)
6992     return false;
6993
6994   SDValue Loc = LD->getOperand(1);
6995   SDValue BaseLoc = Base->getOperand(1);
6996   if (Loc.getOpcode() == ISD::FrameIndex) {
6997     if (BaseLoc.getOpcode() != ISD::FrameIndex)
6998       return false;
6999     const MachineFrameInfo *MFI = getMachineFunction().getFrameInfo();
7000     int FI  = cast<FrameIndexSDNode>(Loc)->getIndex();
7001     int BFI = cast<FrameIndexSDNode>(BaseLoc)->getIndex();
7002     int FS  = MFI->getObjectSize(FI);
7003     int BFS = MFI->getObjectSize(BFI);
7004     if (FS != BFS || FS != (int)Bytes) return false;
7005     return MFI->getObjectOffset(FI) == (MFI->getObjectOffset(BFI) + Dist*Bytes);
7006   }
7007
7008   // Handle X + C.
7009   if (isBaseWithConstantOffset(Loc)) {
7010     int64_t LocOffset = cast<ConstantSDNode>(Loc.getOperand(1))->getSExtValue();
7011     if (Loc.getOperand(0) == BaseLoc) {
7012       // If the base location is a simple address with no offset itself, then
7013       // the second load's first add operand should be the base address.
7014       if (LocOffset == Dist * (int)Bytes)
7015         return true;
7016     } else if (isBaseWithConstantOffset(BaseLoc)) {
7017       // The base location itself has an offset, so subtract that value from the
7018       // second load's offset before comparing to distance * size.
7019       int64_t BOffset =
7020         cast<ConstantSDNode>(BaseLoc.getOperand(1))->getSExtValue();
7021       if (Loc.getOperand(0) == BaseLoc.getOperand(0)) {
7022         if ((LocOffset - BOffset) == Dist * (int)Bytes)
7023           return true;
7024       }
7025     }
7026   }
7027   const GlobalValue *GV1 = nullptr;
7028   const GlobalValue *GV2 = nullptr;
7029   int64_t Offset1 = 0;
7030   int64_t Offset2 = 0;
7031   bool isGA1 = TLI->isGAPlusOffset(Loc.getNode(), GV1, Offset1);
7032   bool isGA2 = TLI->isGAPlusOffset(BaseLoc.getNode(), GV2, Offset2);
7033   if (isGA1 && isGA2 && GV1 == GV2)
7034     return Offset1 == (Offset2 + Dist*Bytes);
7035   return false;
7036 }
7037
7038
7039 /// InferPtrAlignment - Infer alignment of a load / store address. Return 0 if
7040 /// it cannot be inferred.
7041 unsigned SelectionDAG::InferPtrAlignment(SDValue Ptr) const {
7042   // If this is a GlobalAddress + cst, return the alignment.
7043   const GlobalValue *GV;
7044   int64_t GVOffset = 0;
7045   if (TLI->isGAPlusOffset(Ptr.getNode(), GV, GVOffset)) {
7046     unsigned PtrWidth = getDataLayout().getPointerTypeSizeInBits(GV->getType());
7047     APInt KnownZero(PtrWidth, 0), KnownOne(PtrWidth, 0);
7048     llvm::computeKnownBits(const_cast<GlobalValue *>(GV), KnownZero, KnownOne,
7049                            getDataLayout());
7050     unsigned AlignBits = KnownZero.countTrailingOnes();
7051     unsigned Align = AlignBits ? 1 << std::min(31U, AlignBits) : 0;
7052     if (Align)
7053       return MinAlign(Align, GVOffset);
7054   }
7055
7056   // If this is a direct reference to a stack slot, use information about the
7057   // stack slot's alignment.
7058   int FrameIdx = 1 << 31;
7059   int64_t FrameOffset = 0;
7060   if (FrameIndexSDNode *FI = dyn_cast<FrameIndexSDNode>(Ptr)) {
7061     FrameIdx = FI->getIndex();
7062   } else if (isBaseWithConstantOffset(Ptr) &&
7063              isa<FrameIndexSDNode>(Ptr.getOperand(0))) {
7064     // Handle FI+Cst
7065     FrameIdx = cast<FrameIndexSDNode>(Ptr.getOperand(0))->getIndex();
7066     FrameOffset = Ptr.getConstantOperandVal(1);
7067   }
7068
7069   if (FrameIdx != (1 << 31)) {
7070     const MachineFrameInfo &MFI = *getMachineFunction().getFrameInfo();
7071     unsigned FIInfoAlign = MinAlign(MFI.getObjectAlignment(FrameIdx),
7072                                     FrameOffset);
7073     return FIInfoAlign;
7074   }
7075
7076   return 0;
7077 }
7078
7079 /// GetSplitDestVTs - Compute the VTs needed for the low/hi parts of a type
7080 /// which is split (or expanded) into two not necessarily identical pieces.
7081 std::pair<EVT, EVT> SelectionDAG::GetSplitDestVTs(const EVT &VT) const {
7082   // Currently all types are split in half.
7083   EVT LoVT, HiVT;
7084   if (!VT.isVector()) {
7085     LoVT = HiVT = TLI->getTypeToTransformTo(*getContext(), VT);
7086   } else {
7087     unsigned NumElements = VT.getVectorNumElements();
7088     assert(!(NumElements & 1) && "Splitting vector, but not in half!");
7089     LoVT = HiVT = EVT::getVectorVT(*getContext(), VT.getVectorElementType(),
7090                                    NumElements/2);
7091   }
7092   return std::make_pair(LoVT, HiVT);
7093 }
7094
7095 /// SplitVector - Split the vector with EXTRACT_SUBVECTOR and return the
7096 /// low/high part.
7097 std::pair<SDValue, SDValue>
7098 SelectionDAG::SplitVector(const SDValue &N, const SDLoc &DL, const EVT &LoVT,
7099                           const EVT &HiVT) {
7100   assert(LoVT.getVectorNumElements() + HiVT.getVectorNumElements() <=
7101          N.getValueType().getVectorNumElements() &&
7102          "More vector elements requested than available!");
7103   SDValue Lo, Hi;
7104   Lo = getNode(ISD::EXTRACT_SUBVECTOR, DL, LoVT, N,
7105                getConstant(0, DL, TLI->getVectorIdxTy(getDataLayout())));
7106   Hi = getNode(ISD::EXTRACT_SUBVECTOR, DL, HiVT, N,
7107                getConstant(LoVT.getVectorNumElements(), DL,
7108                            TLI->getVectorIdxTy(getDataLayout())));
7109   return std::make_pair(Lo, Hi);
7110 }
7111
7112 void SelectionDAG::ExtractVectorElements(SDValue Op,
7113                                          SmallVectorImpl<SDValue> &Args,
7114                                          unsigned Start, unsigned Count) {
7115   EVT VT = Op.getValueType();
7116   if (Count == 0)
7117     Count = VT.getVectorNumElements();
7118
7119   EVT EltVT = VT.getVectorElementType();
7120   EVT IdxTy = TLI->getVectorIdxTy(getDataLayout());
7121   SDLoc SL(Op);
7122   for (unsigned i = Start, e = Start + Count; i != e; ++i) {
7123     Args.push_back(getNode(ISD::EXTRACT_VECTOR_ELT, SL, EltVT,
7124                            Op, getConstant(i, SL, IdxTy)));
7125   }
7126 }
7127
7128 // getAddressSpace - Return the address space this GlobalAddress belongs to.
7129 unsigned GlobalAddressSDNode::getAddressSpace() const {
7130   return getGlobal()->getType()->getAddressSpace();
7131 }
7132
7133
7134 Type *ConstantPoolSDNode::getType() const {
7135   if (isMachineConstantPoolEntry())
7136     return Val.MachineCPVal->getType();
7137   return Val.ConstVal->getType();
7138 }
7139
7140 bool BuildVectorSDNode::isConstantSplat(APInt &SplatValue,
7141                                         APInt &SplatUndef,
7142                                         unsigned &SplatBitSize,
7143                                         bool &HasAnyUndefs,
7144                                         unsigned MinSplatBits,
7145                                         bool isBigEndian) const {
7146   EVT VT = getValueType(0);
7147   assert(VT.isVector() && "Expected a vector type");
7148   unsigned sz = VT.getSizeInBits();
7149   if (MinSplatBits > sz)
7150     return false;
7151
7152   SplatValue = APInt(sz, 0);
7153   SplatUndef = APInt(sz, 0);
7154
7155   // Get the bits.  Bits with undefined values (when the corresponding element
7156   // of the vector is an ISD::UNDEF value) are set in SplatUndef and cleared
7157   // in SplatValue.  If any of the values are not constant, give up and return
7158   // false.
7159   unsigned int nOps = getNumOperands();
7160   assert(nOps > 0 && "isConstantSplat has 0-size build vector");
7161   unsigned EltBitSize = VT.getVectorElementType().getSizeInBits();
7162
7163   for (unsigned j = 0; j < nOps; ++j) {
7164     unsigned i = isBigEndian ? nOps-1-j : j;
7165     SDValue OpVal = getOperand(i);
7166     unsigned BitPos = j * EltBitSize;
7167
7168     if (OpVal.getOpcode() == ISD::UNDEF)
7169       SplatUndef |= APInt::getBitsSet(sz, BitPos, BitPos + EltBitSize);
7170     else if (ConstantSDNode *CN = dyn_cast<ConstantSDNode>(OpVal))
7171       SplatValue |= CN->getAPIntValue().zextOrTrunc(EltBitSize).
7172                     zextOrTrunc(sz) << BitPos;
7173     else if (ConstantFPSDNode *CN = dyn_cast<ConstantFPSDNode>(OpVal))
7174       SplatValue |= CN->getValueAPF().bitcastToAPInt().zextOrTrunc(sz) <<BitPos;
7175      else
7176       return false;
7177   }
7178
7179   // The build_vector is all constants or undefs.  Find the smallest element
7180   // size that splats the vector.
7181
7182   HasAnyUndefs = (SplatUndef != 0);
7183   while (sz > 8) {
7184
7185     unsigned HalfSize = sz / 2;
7186     APInt HighValue = SplatValue.lshr(HalfSize).trunc(HalfSize);
7187     APInt LowValue = SplatValue.trunc(HalfSize);
7188     APInt HighUndef = SplatUndef.lshr(HalfSize).trunc(HalfSize);
7189     APInt LowUndef = SplatUndef.trunc(HalfSize);
7190
7191     // If the two halves do not match (ignoring undef bits), stop here.
7192     if ((HighValue & ~LowUndef) != (LowValue & ~HighUndef) ||
7193         MinSplatBits > HalfSize)
7194       break;
7195
7196     SplatValue = HighValue | LowValue;
7197     SplatUndef = HighUndef & LowUndef;
7198
7199     sz = HalfSize;
7200   }
7201
7202   SplatBitSize = sz;
7203   return true;
7204 }
7205
7206 SDValue BuildVectorSDNode::getSplatValue(BitVector *UndefElements) const {
7207   if (UndefElements) {
7208     UndefElements->clear();
7209     UndefElements->resize(getNumOperands());
7210   }
7211   SDValue Splatted;
7212   for (unsigned i = 0, e = getNumOperands(); i != e; ++i) {
7213     SDValue Op = getOperand(i);
7214     if (Op.getOpcode() == ISD::UNDEF) {
7215       if (UndefElements)
7216         (*UndefElements)[i] = true;
7217     } else if (!Splatted) {
7218       Splatted = Op;
7219     } else if (Splatted != Op) {
7220       return SDValue();
7221     }
7222   }
7223
7224   if (!Splatted) {
7225     assert(getOperand(0).getOpcode() == ISD::UNDEF &&
7226            "Can only have a splat without a constant for all undefs.");
7227     return getOperand(0);
7228   }
7229
7230   return Splatted;
7231 }
7232
7233 ConstantSDNode *
7234 BuildVectorSDNode::getConstantSplatNode(BitVector *UndefElements) const {
7235   return dyn_cast_or_null<ConstantSDNode>(getSplatValue(UndefElements));
7236 }
7237
7238 ConstantFPSDNode *
7239 BuildVectorSDNode::getConstantFPSplatNode(BitVector *UndefElements) const {
7240   return dyn_cast_or_null<ConstantFPSDNode>(getSplatValue(UndefElements));
7241 }
7242
7243 int32_t
7244 BuildVectorSDNode::getConstantFPSplatPow2ToLog2Int(BitVector *UndefElements,
7245                                                    uint32_t BitWidth) const {
7246   if (ConstantFPSDNode *CN =
7247           dyn_cast_or_null<ConstantFPSDNode>(getSplatValue(UndefElements))) {
7248     bool IsExact;
7249     APSInt IntVal(BitWidth);
7250     APFloat APF = CN->getValueAPF();
7251     if (APF.convertToInteger(IntVal, APFloat::rmTowardZero, &IsExact) !=
7252             APFloat::opOK ||
7253         !IsExact)
7254       return -1;
7255
7256     return IntVal.exactLogBase2();
7257   }
7258   return -1;
7259 }
7260
7261 bool BuildVectorSDNode::isConstant() const {
7262   for (const SDValue &Op : op_values()) {
7263     unsigned Opc = Op.getOpcode();
7264     if (Opc != ISD::UNDEF && Opc != ISD::Constant && Opc != ISD::ConstantFP)
7265       return false;
7266   }
7267   return true;
7268 }
7269
7270 bool ShuffleVectorSDNode::isSplatMask(const int *Mask, EVT VT) {
7271   // Find the first non-undef value in the shuffle mask.
7272   unsigned i, e;
7273   for (i = 0, e = VT.getVectorNumElements(); i != e && Mask[i] < 0; ++i)
7274     /* search */;
7275
7276   assert(i != e && "VECTOR_SHUFFLE node with all undef indices!");
7277
7278   // Make sure all remaining elements are either undef or the same as the first
7279   // non-undef value.
7280   for (int Idx = Mask[i]; i != e; ++i)
7281     if (Mask[i] >= 0 && Mask[i] != Idx)
7282       return false;
7283   return true;
7284 }
7285
7286 #ifndef NDEBUG
7287 static void checkForCyclesHelper(const SDNode *N,
7288                                  SmallPtrSetImpl<const SDNode*> &Visited,
7289                                  SmallPtrSetImpl<const SDNode*> &Checked,
7290                                  const llvm::SelectionDAG *DAG) {
7291   // If this node has already been checked, don't check it again.
7292   if (Checked.count(N))
7293     return;
7294
7295   // If a node has already been visited on this depth-first walk, reject it as
7296   // a cycle.
7297   if (!Visited.insert(N).second) {
7298     errs() << "Detected cycle in SelectionDAG\n";
7299     dbgs() << "Offending node:\n";
7300     N->dumprFull(DAG); dbgs() << "\n";
7301     abort();
7302   }
7303
7304   for (const SDValue &Op : N->op_values())
7305     checkForCyclesHelper(Op.getNode(), Visited, Checked, DAG);
7306
7307   Checked.insert(N);
7308   Visited.erase(N);
7309 }
7310 #endif
7311
7312 void llvm::checkForCycles(const llvm::SDNode *N,
7313                           const llvm::SelectionDAG *DAG,
7314                           bool force) {
7315 #ifndef NDEBUG
7316   bool check = force;
7317 #ifdef XDEBUG
7318   check = true;
7319 #endif  // XDEBUG
7320   if (check) {
7321     assert(N && "Checking nonexistent SDNode");
7322     SmallPtrSet<const SDNode*, 32> visited;
7323     SmallPtrSet<const SDNode*, 32> checked;
7324     checkForCyclesHelper(N, visited, checked, DAG);
7325   }
7326 #endif  // !NDEBUG
7327 }
7328
7329 void llvm::checkForCycles(const llvm::SelectionDAG *DAG, bool force) {
7330   checkForCycles(DAG->getRoot().getNode(), DAG, force);
7331 }