- Add target lowering methods to get the preferred format for the FDE and LSDA
[oota-llvm.git] / include / llvm / Target / TargetLowering.h
1 //===-- llvm/Target/TargetLowering.h - Target Lowering Info -----*- C++ -*-===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file describes how to lower LLVM code to machine code.  This has two
11 // main components:
12 //
13 //  1. Which ValueTypes are natively supported by the target.
14 //  2. Which operations are supported for supported ValueTypes.
15 //  3. Cost thresholds for alternative implementations of certain operations.
16 //
17 // In addition it has a few other components, like information about FP
18 // immediates.
19 //
20 //===----------------------------------------------------------------------===//
21
22 #ifndef LLVM_TARGET_TARGETLOWERING_H
23 #define LLVM_TARGET_TARGETLOWERING_H
24
25 #include "llvm/CallingConv.h"
26 #include "llvm/InlineAsm.h"
27 #include "llvm/CodeGen/SelectionDAGNodes.h"
28 #include "llvm/CodeGen/RuntimeLibcalls.h"
29 #include "llvm/ADT/APFloat.h"
30 #include "llvm/ADT/DenseMap.h"
31 #include "llvm/ADT/SmallSet.h"
32 #include "llvm/ADT/SmallVector.h"
33 #include "llvm/ADT/STLExtras.h"
34 #include "llvm/Support/DebugLoc.h"
35 #include "llvm/Support/Dwarf.h"
36 #include "llvm/Target/TargetMachine.h"
37 #include <climits>
38 #include <map>
39 #include <vector>
40
41 namespace llvm {
42   class AllocaInst;
43   class CallInst;
44   class Function;
45   class FastISel;
46   class MachineBasicBlock;
47   class MachineFunction;
48   class MachineFrameInfo;
49   class MachineInstr;
50   class MachineModuleInfo;
51   class DwarfWriter;
52   class SDNode;
53   class SDValue;
54   class SelectionDAG;
55   class TargetData;
56   class TargetMachine;
57   class TargetRegisterClass;
58   class TargetSubtarget;
59   class TargetLoweringObjectFile;
60   class Value;
61
62   // FIXME: should this be here?
63   namespace TLSModel {
64     enum Model {
65       GeneralDynamic,
66       LocalDynamic,
67       InitialExec,
68       LocalExec
69     };
70   }
71   TLSModel::Model getTLSModel(const GlobalValue *GV, Reloc::Model reloc);
72
73
74 //===----------------------------------------------------------------------===//
75 /// TargetLowering - This class defines information used to lower LLVM code to
76 /// legal SelectionDAG operators that the target instruction selector can accept
77 /// natively.
78 ///
79 /// This class also defines callbacks that targets must implement to lower
80 /// target-specific constructs to SelectionDAG operators.
81 ///
82 class TargetLowering {
83   TargetLowering(const TargetLowering&);  // DO NOT IMPLEMENT
84   void operator=(const TargetLowering&);  // DO NOT IMPLEMENT
85 public:
86   /// LegalizeAction - This enum indicates whether operations are valid for a
87   /// target, and if not, what action should be used to make them valid.
88   enum LegalizeAction {
89     Legal,      // The target natively supports this operation.
90     Promote,    // This operation should be executed in a larger type.
91     Expand,     // Try to expand this to other ops, otherwise use a libcall.
92     Custom      // Use the LowerOperation hook to implement custom lowering.
93   };
94
95   enum BooleanContent { // How the target represents true/false values.
96     UndefinedBooleanContent,    // Only bit 0 counts, the rest can hold garbage.
97     ZeroOrOneBooleanContent,        // All bits zero except for bit 0.
98     ZeroOrNegativeOneBooleanContent // All bits equal to bit 0.
99   };
100
101   enum SchedPreference {
102     SchedulingForLatency,          // Scheduling for shortest total latency.
103     SchedulingForRegPressure       // Scheduling for lowest register pressure.
104   };
105
106   /// NOTE: The constructor takes ownership of TLOF.
107   explicit TargetLowering(TargetMachine &TM, TargetLoweringObjectFile *TLOF);
108   virtual ~TargetLowering();
109
110   TargetMachine &getTargetMachine() const { return TM; }
111   const TargetData *getTargetData() const { return TD; }
112   TargetLoweringObjectFile &getObjFileLowering() const { return TLOF; }
113
114   bool isBigEndian() const { return !IsLittleEndian; }
115   bool isLittleEndian() const { return IsLittleEndian; }
116   MVT getPointerTy() const { return PointerTy; }
117   MVT getShiftAmountTy() const { return ShiftAmountTy; }
118
119   /// usesGlobalOffsetTable - Return true if this target uses a GOT for PIC
120   /// codegen.
121   bool usesGlobalOffsetTable() const { return UsesGlobalOffsetTable; }
122
123   /// isSelectExpensive - Return true if the select operation is expensive for
124   /// this target.
125   bool isSelectExpensive() const { return SelectIsExpensive; }
126   
127   /// isIntDivCheap() - Return true if integer divide is usually cheaper than
128   /// a sequence of several shifts, adds, and multiplies for this target.
129   bool isIntDivCheap() const { return IntDivIsCheap; }
130
131   /// isPow2DivCheap() - Return true if pow2 div is cheaper than a chain of
132   /// srl/add/sra.
133   bool isPow2DivCheap() const { return Pow2DivIsCheap; }
134
135   /// getSetCCResultType - Return the ValueType of the result of SETCC
136   /// operations.  Also used to obtain the target's preferred type for
137   /// the condition operand of SELECT and BRCOND nodes.  In the case of
138   /// BRCOND the argument passed is MVT::Other since there are no other
139   /// operands to get a type hint from.
140   virtual
141   MVT::SimpleValueType getSetCCResultType(EVT VT) const;
142
143   /// getBooleanContents - For targets without i1 registers, this gives the
144   /// nature of the high-bits of boolean values held in types wider than i1.
145   /// "Boolean values" are special true/false values produced by nodes like
146   /// SETCC and consumed (as the condition) by nodes like SELECT and BRCOND.
147   /// Not to be confused with general values promoted from i1.
148   BooleanContent getBooleanContents() const { return BooleanContents;}
149
150   /// getSchedulingPreference - Return target scheduling preference.
151   SchedPreference getSchedulingPreference() const {
152     return SchedPreferenceInfo;
153   }
154
155   /// getRegClassFor - Return the register class that should be used for the
156   /// specified value type.  This may only be called on legal types.
157   TargetRegisterClass *getRegClassFor(EVT VT) const {
158     assert(VT.isSimple() && "getRegClassFor called on illegal type!");
159     TargetRegisterClass *RC = RegClassForVT[VT.getSimpleVT().SimpleTy];
160     assert(RC && "This value type is not natively supported!");
161     return RC;
162   }
163
164   /// isTypeLegal - Return true if the target has native support for the
165   /// specified value type.  This means that it has a register that directly
166   /// holds it without promotions or expansions.
167   bool isTypeLegal(EVT VT) const {
168     assert(!VT.isSimple() ||
169            (unsigned)VT.getSimpleVT().SimpleTy < array_lengthof(RegClassForVT));
170     return VT.isSimple() && RegClassForVT[VT.getSimpleVT().SimpleTy] != 0;
171   }
172
173   class ValueTypeActionImpl {
174     /// ValueTypeActions - This is a bitvector that contains two bits for each
175     /// value type, where the two bits correspond to the LegalizeAction enum.
176     /// This can be queried with "getTypeAction(VT)".
177     /// dimension by (MVT::MAX_ALLOWED_VALUETYPE/32) * 2
178     uint32_t ValueTypeActions[(MVT::MAX_ALLOWED_VALUETYPE/32)*2];
179   public:
180     ValueTypeActionImpl() {
181       ValueTypeActions[0] = ValueTypeActions[1] = 0;
182       ValueTypeActions[2] = ValueTypeActions[3] = 0;
183     }
184     ValueTypeActionImpl(const ValueTypeActionImpl &RHS) {
185       ValueTypeActions[0] = RHS.ValueTypeActions[0];
186       ValueTypeActions[1] = RHS.ValueTypeActions[1];
187       ValueTypeActions[2] = RHS.ValueTypeActions[2];
188       ValueTypeActions[3] = RHS.ValueTypeActions[3];
189     }
190     
191     LegalizeAction getTypeAction(LLVMContext &Context, EVT VT) const {
192       if (VT.isExtended()) {
193         if (VT.isVector()) {
194           return VT.isPow2VectorType() ? Expand : Promote;
195         }
196         if (VT.isInteger())
197           // First promote to a power-of-two size, then expand if necessary.
198           return VT == VT.getRoundIntegerType(Context) ? Expand : Promote;
199         assert(0 && "Unsupported extended type!");
200         return Legal;
201       }
202       unsigned I = VT.getSimpleVT().SimpleTy;
203       assert(I<4*array_lengthof(ValueTypeActions)*sizeof(ValueTypeActions[0]));
204       return (LegalizeAction)((ValueTypeActions[I>>4] >> ((2*I) & 31)) & 3);
205     }
206     void setTypeAction(EVT VT, LegalizeAction Action) {
207       unsigned I = VT.getSimpleVT().SimpleTy;
208       assert(I<4*array_lengthof(ValueTypeActions)*sizeof(ValueTypeActions[0]));
209       ValueTypeActions[I>>4] |= Action << ((I*2) & 31);
210     }
211   };
212   
213   const ValueTypeActionImpl &getValueTypeActions() const {
214     return ValueTypeActions;
215   }
216
217   /// getTypeAction - Return how we should legalize values of this type, either
218   /// it is already legal (return 'Legal') or we need to promote it to a larger
219   /// type (return 'Promote'), or we need to expand it into multiple registers
220   /// of smaller integer type (return 'Expand').  'Custom' is not an option.
221   LegalizeAction getTypeAction(LLVMContext &Context, EVT VT) const {
222     return ValueTypeActions.getTypeAction(Context, VT);
223   }
224
225   /// getTypeToTransformTo - For types supported by the target, this is an
226   /// identity function.  For types that must be promoted to larger types, this
227   /// returns the larger type to promote to.  For integer types that are larger
228   /// than the largest integer register, this contains one step in the expansion
229   /// to get to the smaller register. For illegal floating point types, this
230   /// returns the integer type to transform to.
231   EVT getTypeToTransformTo(LLVMContext &Context, EVT VT) const {
232     if (VT.isSimple()) {
233       assert((unsigned)VT.getSimpleVT().SimpleTy < 
234              array_lengthof(TransformToType));
235       EVT NVT = TransformToType[VT.getSimpleVT().SimpleTy];
236       assert(getTypeAction(Context, NVT) != Promote &&
237              "Promote may not follow Expand or Promote");
238       return NVT;
239     }
240
241     if (VT.isVector()) {
242       EVT NVT = VT.getPow2VectorType(Context);
243       if (NVT == VT) {
244         // Vector length is a power of 2 - split to half the size.
245         unsigned NumElts = VT.getVectorNumElements();
246         EVT EltVT = VT.getVectorElementType();
247         return (NumElts == 1) ?
248           EltVT : EVT::getVectorVT(Context, EltVT, NumElts / 2);
249       }
250       // Promote to a power of two size, avoiding multi-step promotion.
251       return getTypeAction(Context, NVT) == Promote ?
252         getTypeToTransformTo(Context, NVT) : NVT;
253     } else if (VT.isInteger()) {
254       EVT NVT = VT.getRoundIntegerType(Context);
255       if (NVT == VT)
256         // Size is a power of two - expand to half the size.
257         return EVT::getIntegerVT(Context, VT.getSizeInBits() / 2);
258       else
259         // Promote to a power of two size, avoiding multi-step promotion.
260         return getTypeAction(Context, NVT) == Promote ? 
261           getTypeToTransformTo(Context, NVT) : NVT;
262     }
263     assert(0 && "Unsupported extended type!");
264     return MVT(MVT::Other); // Not reached
265   }
266
267   /// getTypeToExpandTo - For types supported by the target, this is an
268   /// identity function.  For types that must be expanded (i.e. integer types
269   /// that are larger than the largest integer register or illegal floating
270   /// point types), this returns the largest legal type it will be expanded to.
271   EVT getTypeToExpandTo(LLVMContext &Context, EVT VT) const {
272     assert(!VT.isVector());
273     while (true) {
274       switch (getTypeAction(Context, VT)) {
275       case Legal:
276         return VT;
277       case Expand:
278         VT = getTypeToTransformTo(Context, VT);
279         break;
280       default:
281         assert(false && "Type is not legal nor is it to be expanded!");
282         return VT;
283       }
284     }
285     return VT;
286   }
287
288   /// getVectorTypeBreakdown - Vector types are broken down into some number of
289   /// legal first class types.  For example, EVT::v8f32 maps to 2 EVT::v4f32
290   /// with Altivec or SSE1, or 8 promoted EVT::f64 values with the X86 FP stack.
291   /// Similarly, EVT::v2i64 turns into 4 EVT::i32 values with both PPC and X86.
292   ///
293   /// This method returns the number of registers needed, and the VT for each
294   /// register.  It also returns the VT and quantity of the intermediate values
295   /// before they are promoted/expanded.
296   ///
297   unsigned getVectorTypeBreakdown(LLVMContext &Context, EVT VT,
298                                   EVT &IntermediateVT,
299                                   unsigned &NumIntermediates,
300                                   EVT &RegisterVT) const;
301
302   /// getTgtMemIntrinsic: Given an intrinsic, checks if on the target the
303   /// intrinsic will need to map to a MemIntrinsicNode (touches memory). If
304   /// this is the case, it returns true and store the intrinsic
305   /// information into the IntrinsicInfo that was passed to the function.
306   typedef struct IntrinsicInfo { 
307     unsigned     opc;         // target opcode
308     EVT          memVT;       // memory VT
309     const Value* ptrVal;      // value representing memory location
310     int          offset;      // offset off of ptrVal 
311     unsigned     align;       // alignment
312     bool         vol;         // is volatile?
313     bool         readMem;     // reads memory?
314     bool         writeMem;    // writes memory?
315   } IntrinisicInfo;
316
317   virtual bool getTgtMemIntrinsic(IntrinsicInfo& Info,
318                                   CallInst &I, unsigned Intrinsic) {
319     return false;
320   }
321
322   /// getWidenVectorType: given a vector type, returns the type to widen to
323   /// (e.g., v7i8 to v8i8). If the vector type is legal, it returns itself.
324   /// If there is no vector type that we want to widen to, returns MVT::Other
325   /// When and were to widen is target dependent based on the cost of
326   /// scalarizing vs using the wider vector type.
327   virtual EVT getWidenVectorType(EVT VT) const;
328
329   typedef std::vector<APFloat>::const_iterator legal_fpimm_iterator;
330   legal_fpimm_iterator legal_fpimm_begin() const {
331     return LegalFPImmediates.begin();
332   }
333   legal_fpimm_iterator legal_fpimm_end() const {
334     return LegalFPImmediates.end();
335   }
336   
337   /// isShuffleMaskLegal - Targets can use this to indicate that they only
338   /// support *some* VECTOR_SHUFFLE operations, those with specific masks.
339   /// By default, if a target supports the VECTOR_SHUFFLE node, all mask values
340   /// are assumed to be legal.
341   virtual bool isShuffleMaskLegal(const SmallVectorImpl<int> &Mask,
342                                   EVT VT) const {
343     return true;
344   }
345
346   /// isVectorClearMaskLegal - Similar to isShuffleMaskLegal. This is
347   /// used by Targets can use this to indicate if there is a suitable
348   /// VECTOR_SHUFFLE that can be used to replace a VAND with a constant
349   /// pool entry.
350   virtual bool isVectorClearMaskLegal(const SmallVectorImpl<int> &Mask,
351                                       EVT VT) const {
352     return false;
353   }
354
355   /// getOperationAction - Return how this operation should be treated: either
356   /// it is legal, needs to be promoted to a larger size, needs to be
357   /// expanded to some other code sequence, or the target has a custom expander
358   /// for it.
359   LegalizeAction getOperationAction(unsigned Op, EVT VT) const {
360     if (VT.isExtended()) return Expand;
361     assert(Op < array_lengthof(OpActions[0]) &&
362            (unsigned)VT.getSimpleVT().SimpleTy < sizeof(OpActions[0][0])*8 &&
363            "Table isn't big enough!");
364     unsigned I = (unsigned) VT.getSimpleVT().SimpleTy;
365     unsigned J = I & 31;
366     I = I >> 5;
367     return (LegalizeAction)((OpActions[I][Op] >> (J*2) ) & 3);
368   }
369
370   /// isOperationLegalOrCustom - Return true if the specified operation is
371   /// legal on this target or can be made legal with custom lowering. This
372   /// is used to help guide high-level lowering decisions.
373   bool isOperationLegalOrCustom(unsigned Op, EVT VT) const {
374     return (VT == MVT::Other || isTypeLegal(VT)) &&
375       (getOperationAction(Op, VT) == Legal ||
376        getOperationAction(Op, VT) == Custom);
377   }
378
379   /// isOperationLegal - Return true if the specified operation is legal on this
380   /// target.
381   bool isOperationLegal(unsigned Op, EVT VT) const {
382     return (VT == MVT::Other || isTypeLegal(VT)) &&
383            getOperationAction(Op, VT) == Legal;
384   }
385
386   /// getLoadExtAction - Return how this load with extension should be treated:
387   /// either it is legal, needs to be promoted to a larger size, needs to be
388   /// expanded to some other code sequence, or the target has a custom expander
389   /// for it.
390   LegalizeAction getLoadExtAction(unsigned LType, EVT VT) const {
391     assert(LType < array_lengthof(LoadExtActions) &&
392            (unsigned)VT.getSimpleVT().SimpleTy < sizeof(LoadExtActions[0])*4 &&
393            "Table isn't big enough!");
394     return (LegalizeAction)((LoadExtActions[LType] >> 
395               (2*VT.getSimpleVT().SimpleTy)) & 3);
396   }
397
398   /// isLoadExtLegal - Return true if the specified load with extension is legal
399   /// on this target.
400   bool isLoadExtLegal(unsigned LType, EVT VT) const {
401     return VT.isSimple() &&
402       (getLoadExtAction(LType, VT) == Legal ||
403        getLoadExtAction(LType, VT) == Custom);
404   }
405
406   /// getTruncStoreAction - Return how this store with truncation should be
407   /// treated: either it is legal, needs to be promoted to a larger size, needs
408   /// to be expanded to some other code sequence, or the target has a custom
409   /// expander for it.
410   LegalizeAction getTruncStoreAction(EVT ValVT,
411                                      EVT MemVT) const {
412     assert((unsigned)ValVT.getSimpleVT().SimpleTy <
413              array_lengthof(TruncStoreActions) &&
414            (unsigned)MemVT.getSimpleVT().SimpleTy <
415              sizeof(TruncStoreActions[0])*4 &&
416            "Table isn't big enough!");
417     return (LegalizeAction)((TruncStoreActions[ValVT.getSimpleVT().SimpleTy] >>
418                              (2*MemVT.getSimpleVT().SimpleTy)) & 3);
419   }
420
421   /// isTruncStoreLegal - Return true if the specified store with truncation is
422   /// legal on this target.
423   bool isTruncStoreLegal(EVT ValVT, EVT MemVT) const {
424     return isTypeLegal(ValVT) && MemVT.isSimple() &&
425       (getTruncStoreAction(ValVT, MemVT) == Legal ||
426        getTruncStoreAction(ValVT, MemVT) == Custom);
427   }
428
429   /// getIndexedLoadAction - Return how the indexed load should be treated:
430   /// either it is legal, needs to be promoted to a larger size, needs to be
431   /// expanded to some other code sequence, or the target has a custom expander
432   /// for it.
433   LegalizeAction
434   getIndexedLoadAction(unsigned IdxMode, EVT VT) const {
435     assert( IdxMode < array_lengthof(IndexedModeActions[0][0]) &&
436            ((unsigned)VT.getSimpleVT().SimpleTy) < MVT::LAST_VALUETYPE &&
437            "Table isn't big enough!");
438     return (LegalizeAction)((IndexedModeActions[
439                              (unsigned)VT.getSimpleVT().SimpleTy][0][IdxMode]));
440   }
441
442   /// isIndexedLoadLegal - Return true if the specified indexed load is legal
443   /// on this target.
444   bool isIndexedLoadLegal(unsigned IdxMode, EVT VT) const {
445     return VT.isSimple() &&
446       (getIndexedLoadAction(IdxMode, VT) == Legal ||
447        getIndexedLoadAction(IdxMode, VT) == Custom);
448   }
449
450   /// getIndexedStoreAction - Return how the indexed store should be treated:
451   /// either it is legal, needs to be promoted to a larger size, needs to be
452   /// expanded to some other code sequence, or the target has a custom expander
453   /// for it.
454   LegalizeAction
455   getIndexedStoreAction(unsigned IdxMode, EVT VT) const {
456     assert(IdxMode < array_lengthof(IndexedModeActions[0][1]) &&
457            (unsigned)VT.getSimpleVT().SimpleTy < MVT::LAST_VALUETYPE &&
458            "Table isn't big enough!");
459     return (LegalizeAction)((IndexedModeActions[
460               (unsigned)VT.getSimpleVT().SimpleTy][1][IdxMode]));
461   }  
462
463   /// isIndexedStoreLegal - Return true if the specified indexed load is legal
464   /// on this target.
465   bool isIndexedStoreLegal(unsigned IdxMode, EVT VT) const {
466     return VT.isSimple() &&
467       (getIndexedStoreAction(IdxMode, VT) == Legal ||
468        getIndexedStoreAction(IdxMode, VT) == Custom);
469   }
470
471   /// getConvertAction - Return how the conversion should be treated:
472   /// either it is legal, needs to be promoted to a larger size, needs to be
473   /// expanded to some other code sequence, or the target has a custom expander
474   /// for it.
475   LegalizeAction
476   getConvertAction(EVT FromVT, EVT ToVT) const {
477     assert((unsigned)FromVT.getSimpleVT().SimpleTy <
478               array_lengthof(ConvertActions) &&
479            (unsigned)ToVT.getSimpleVT().SimpleTy <
480               sizeof(ConvertActions[0])*4 &&
481            "Table isn't big enough!");
482     return (LegalizeAction)((ConvertActions[FromVT.getSimpleVT().SimpleTy] >>
483                              (2*ToVT.getSimpleVT().SimpleTy)) & 3);
484   }
485
486   /// isConvertLegal - Return true if the specified conversion is legal
487   /// on this target.
488   bool isConvertLegal(EVT FromVT, EVT ToVT) const {
489     return isTypeLegal(FromVT) && isTypeLegal(ToVT) &&
490       (getConvertAction(FromVT, ToVT) == Legal ||
491        getConvertAction(FromVT, ToVT) == Custom);
492   }
493
494   /// getCondCodeAction - Return how the condition code should be treated:
495   /// either it is legal, needs to be expanded to some other code sequence,
496   /// or the target has a custom expander for it.
497   LegalizeAction
498   getCondCodeAction(ISD::CondCode CC, EVT VT) const {
499     assert((unsigned)CC < array_lengthof(CondCodeActions) &&
500            (unsigned)VT.getSimpleVT().SimpleTy < sizeof(CondCodeActions[0])*4 &&
501            "Table isn't big enough!");
502     LegalizeAction Action = (LegalizeAction)
503       ((CondCodeActions[CC] >> (2*VT.getSimpleVT().SimpleTy)) & 3);
504     assert(Action != Promote && "Can't promote condition code!");
505     return Action;
506   }
507
508   /// isCondCodeLegal - Return true if the specified condition code is legal
509   /// on this target.
510   bool isCondCodeLegal(ISD::CondCode CC, EVT VT) const {
511     return getCondCodeAction(CC, VT) == Legal ||
512            getCondCodeAction(CC, VT) == Custom;
513   }
514
515
516   /// getTypeToPromoteTo - If the action for this operation is to promote, this
517   /// method returns the ValueType to promote to.
518   EVT getTypeToPromoteTo(unsigned Op, EVT VT) const {
519     assert(getOperationAction(Op, VT) == Promote &&
520            "This operation isn't promoted!");
521
522     // See if this has an explicit type specified.
523     std::map<std::pair<unsigned, MVT::SimpleValueType>,
524              MVT::SimpleValueType>::const_iterator PTTI =
525       PromoteToType.find(std::make_pair(Op, VT.getSimpleVT().SimpleTy));
526     if (PTTI != PromoteToType.end()) return PTTI->second;
527
528     assert((VT.isInteger() || VT.isFloatingPoint()) &&
529            "Cannot autopromote this type, add it with AddPromotedToType.");
530     
531     EVT NVT = VT;
532     do {
533       NVT = (MVT::SimpleValueType)(NVT.getSimpleVT().SimpleTy+1);
534       assert(NVT.isInteger() == VT.isInteger() && NVT != MVT::isVoid &&
535              "Didn't find type to promote to!");
536     } while (!isTypeLegal(NVT) ||
537               getOperationAction(Op, NVT) == Promote);
538     return NVT;
539   }
540
541   /// getValueType - Return the EVT corresponding to this LLVM type.
542   /// This is fixed by the LLVM operations except for the pointer size.  If
543   /// AllowUnknown is true, this will return MVT::Other for types with no EVT
544   /// counterpart (e.g. structs), otherwise it will assert.
545   EVT getValueType(const Type *Ty, bool AllowUnknown = false) const {
546     EVT VT = EVT::getEVT(Ty, AllowUnknown);
547     return VT == MVT:: iPTR ? PointerTy : VT;
548   }
549
550   /// getByValTypeAlignment - Return the desired alignment for ByVal aggregate
551   /// function arguments in the caller parameter area.  This is the actual
552   /// alignment, not its logarithm.
553   virtual unsigned getByValTypeAlignment(const Type *Ty) const;
554   
555   /// getRegisterType - Return the type of registers that this ValueType will
556   /// eventually require.
557   EVT getRegisterType(MVT VT) const {
558     assert((unsigned)VT.SimpleTy < array_lengthof(RegisterTypeForVT));
559     return RegisterTypeForVT[VT.SimpleTy];
560   }
561   
562   /// getRegisterType - Return the type of registers that this ValueType will
563   /// eventually require.
564   EVT getRegisterType(LLVMContext &Context, EVT VT) const {
565     if (VT.isSimple()) {
566       assert((unsigned)VT.getSimpleVT().SimpleTy <
567                 array_lengthof(RegisterTypeForVT));
568       return RegisterTypeForVT[VT.getSimpleVT().SimpleTy];
569     }
570     if (VT.isVector()) {
571       EVT VT1, RegisterVT;
572       unsigned NumIntermediates;
573       (void)getVectorTypeBreakdown(Context, VT, VT1,
574                                    NumIntermediates, RegisterVT);
575       return RegisterVT;
576     }
577     if (VT.isInteger()) {
578       return getRegisterType(Context, getTypeToTransformTo(Context, VT));
579     }
580     assert(0 && "Unsupported extended type!");
581     return EVT(MVT::Other); // Not reached
582   }
583
584   /// getNumRegisters - Return the number of registers that this ValueType will
585   /// eventually require.  This is one for any types promoted to live in larger
586   /// registers, but may be more than one for types (like i64) that are split
587   /// into pieces.  For types like i140, which are first promoted then expanded,
588   /// it is the number of registers needed to hold all the bits of the original
589   /// type.  For an i140 on a 32 bit machine this means 5 registers.
590   unsigned getNumRegisters(LLVMContext &Context, EVT VT) const {
591     if (VT.isSimple()) {
592       assert((unsigned)VT.getSimpleVT().SimpleTy <
593                 array_lengthof(NumRegistersForVT));
594       return NumRegistersForVT[VT.getSimpleVT().SimpleTy];
595     }
596     if (VT.isVector()) {
597       EVT VT1, VT2;
598       unsigned NumIntermediates;
599       return getVectorTypeBreakdown(Context, VT, VT1, NumIntermediates, VT2);
600     }
601     if (VT.isInteger()) {
602       unsigned BitWidth = VT.getSizeInBits();
603       unsigned RegWidth = getRegisterType(Context, VT).getSizeInBits();
604       return (BitWidth + RegWidth - 1) / RegWidth;
605     }
606     assert(0 && "Unsupported extended type!");
607     return 0; // Not reached
608   }
609
610   /// ShouldShrinkFPConstant - If true, then instruction selection should
611   /// seek to shrink the FP constant of the specified type to a smaller type
612   /// in order to save space and / or reduce runtime.
613   virtual bool ShouldShrinkFPConstant(EVT VT) const { return true; }
614
615   /// hasTargetDAGCombine - If true, the target has custom DAG combine
616   /// transformations that it can perform for the specified node.
617   bool hasTargetDAGCombine(ISD::NodeType NT) const {
618     assert(unsigned(NT >> 3) < array_lengthof(TargetDAGCombineArray));
619     return TargetDAGCombineArray[NT >> 3] & (1 << (NT&7));
620   }
621
622   /// This function returns the maximum number of store operations permitted
623   /// to replace a call to llvm.memset. The value is set by the target at the
624   /// performance threshold for such a replacement.
625   /// @brief Get maximum # of store operations permitted for llvm.memset
626   unsigned getMaxStoresPerMemset() const { return maxStoresPerMemset; }
627
628   /// This function returns the maximum number of store operations permitted
629   /// to replace a call to llvm.memcpy. The value is set by the target at the
630   /// performance threshold for such a replacement.
631   /// @brief Get maximum # of store operations permitted for llvm.memcpy
632   unsigned getMaxStoresPerMemcpy() const { return maxStoresPerMemcpy; }
633
634   /// This function returns the maximum number of store operations permitted
635   /// to replace a call to llvm.memmove. The value is set by the target at the
636   /// performance threshold for such a replacement.
637   /// @brief Get maximum # of store operations permitted for llvm.memmove
638   unsigned getMaxStoresPerMemmove() const { return maxStoresPerMemmove; }
639
640   /// This function returns true if the target allows unaligned memory accesses.
641   /// of the specified type. This is used, for example, in situations where an
642   /// array copy/move/set is  converted to a sequence of store operations. It's
643   /// use helps to ensure that such replacements don't generate code that causes
644   /// an alignment error  (trap) on the target machine. 
645   /// @brief Determine if the target supports unaligned memory accesses.
646   virtual bool allowsUnalignedMemoryAccesses(EVT VT) const {
647     return false;
648   }
649
650   /// This function returns true if the target would benefit from code placement
651   /// optimization.
652   /// @brief Determine if the target should perform code placement optimization.
653   bool shouldOptimizeCodePlacement() const {
654     return benefitFromCodePlacementOpt;
655   }
656
657   /// getOptimalMemOpType - Returns the target specific optimal type for load
658   /// and store operations as a result of memset, memcpy, and memmove lowering.
659   /// It returns EVT::iAny if SelectionDAG should be responsible for
660   /// determining it.
661   virtual EVT getOptimalMemOpType(uint64_t Size, unsigned Align,
662                                   bool isSrcConst, bool isSrcStr,
663                                   SelectionDAG &DAG) const {
664     return MVT::iAny;
665   }
666   
667   /// usesUnderscoreSetJmp - Determine if we should use _setjmp or setjmp
668   /// to implement llvm.setjmp.
669   bool usesUnderscoreSetJmp() const {
670     return UseUnderscoreSetJmp;
671   }
672
673   /// usesUnderscoreLongJmp - Determine if we should use _longjmp or longjmp
674   /// to implement llvm.longjmp.
675   bool usesUnderscoreLongJmp() const {
676     return UseUnderscoreLongJmp;
677   }
678
679   /// getStackPointerRegisterToSaveRestore - If a physical register, this
680   /// specifies the register that llvm.savestack/llvm.restorestack should save
681   /// and restore.
682   unsigned getStackPointerRegisterToSaveRestore() const {
683     return StackPointerRegisterToSaveRestore;
684   }
685
686   /// getExceptionAddressRegister - If a physical register, this returns
687   /// the register that receives the exception address on entry to a landing
688   /// pad.
689   unsigned getExceptionAddressRegister() const {
690     return ExceptionPointerRegister;
691   }
692
693   /// getExceptionSelectorRegister - If a physical register, this returns
694   /// the register that receives the exception typeid on entry to a landing
695   /// pad.
696   unsigned getExceptionSelectorRegister() const {
697     return ExceptionSelectorRegister;
698   }
699
700   /// getJumpBufSize - returns the target's jmp_buf size in bytes (if never
701   /// set, the default is 200)
702   unsigned getJumpBufSize() const {
703     return JumpBufSize;
704   }
705
706   /// getJumpBufAlignment - returns the target's jmp_buf alignment in bytes
707   /// (if never set, the default is 0)
708   unsigned getJumpBufAlignment() const {
709     return JumpBufAlignment;
710   }
711
712   /// getIfCvtBlockLimit - returns the target specific if-conversion block size
713   /// limit. Any block whose size is greater should not be predicated.
714   unsigned getIfCvtBlockSizeLimit() const {
715     return IfCvtBlockSizeLimit;
716   }
717
718   /// getIfCvtDupBlockLimit - returns the target specific size limit for a
719   /// block to be considered for duplication. Any block whose size is greater
720   /// should not be duplicated to facilitate its predication.
721   unsigned getIfCvtDupBlockSizeLimit() const {
722     return IfCvtDupBlockSizeLimit;
723   }
724
725   /// getPrefLoopAlignment - return the preferred loop alignment.
726   ///
727   unsigned getPrefLoopAlignment() const {
728     return PrefLoopAlignment;
729   }
730   
731   /// getPreIndexedAddressParts - returns true by value, base pointer and
732   /// offset pointer and addressing mode by reference if the node's address
733   /// can be legally represented as pre-indexed load / store address.
734   virtual bool getPreIndexedAddressParts(SDNode *N, SDValue &Base,
735                                          SDValue &Offset,
736                                          ISD::MemIndexedMode &AM,
737                                          SelectionDAG &DAG) const {
738     return false;
739   }
740   
741   /// getPostIndexedAddressParts - returns true by value, base pointer and
742   /// offset pointer and addressing mode by reference if this node can be
743   /// combined with a load / store to form a post-indexed load / store.
744   virtual bool getPostIndexedAddressParts(SDNode *N, SDNode *Op,
745                                           SDValue &Base, SDValue &Offset,
746                                           ISD::MemIndexedMode &AM,
747                                           SelectionDAG &DAG) const {
748     return false;
749   }
750   
751   /// getPICJumpTableRelocaBase - Returns relocation base for the given PIC
752   /// jumptable.
753   virtual SDValue getPICJumpTableRelocBase(SDValue Table,
754                                            SelectionDAG &DAG) const;
755
756   /// isOffsetFoldingLegal - Return true if folding a constant offset
757   /// with the given GlobalAddress is legal.  It is frequently not legal in
758   /// PIC relocation models.
759   virtual bool isOffsetFoldingLegal(const GlobalAddressSDNode *GA) const;
760
761   /// getFunctionAlignment - Return the Log2 alignment of this function.
762   virtual unsigned getFunctionAlignment(const Function *) const = 0;
763
764   /// getPreferredLSDADataFormat - Return the preferred exception handling data
765   /// format for the LSDA.
766   virtual unsigned getPreferredLSDADataFormat() const {
767     return dwarf::DW_EH_PE_absptr;
768   }
769
770   /// getPreferredFDEDataFormat - Return the preferred exception handling data
771   /// format for the FDE.
772   virtual unsigned getPreferredFDEDataFormat() const {
773     return dwarf::DW_EH_PE_absptr;
774   }
775
776   //===--------------------------------------------------------------------===//
777   // TargetLowering Optimization Methods
778   //
779   
780   /// TargetLoweringOpt - A convenience struct that encapsulates a DAG, and two
781   /// SDValues for returning information from TargetLowering to its clients
782   /// that want to combine 
783   struct TargetLoweringOpt {
784     SelectionDAG &DAG;
785     SDValue Old;
786     SDValue New;
787
788     explicit TargetLoweringOpt(SelectionDAG &InDAG) : DAG(InDAG) {}
789     
790     bool CombineTo(SDValue O, SDValue N) { 
791       Old = O; 
792       New = N; 
793       return true;
794     }
795     
796     /// ShrinkDemandedConstant - Check to see if the specified operand of the 
797     /// specified instruction is a constant integer.  If so, check to see if
798     /// there are any bits set in the constant that are not demanded.  If so,
799     /// shrink the constant and return true.
800     bool ShrinkDemandedConstant(SDValue Op, const APInt &Demanded);
801
802     /// ShrinkDemandedOp - Convert x+y to (VT)((SmallVT)x+(SmallVT)y) if the
803     /// casts are free.  This uses isZExtFree and ZERO_EXTEND for the widening
804     /// cast, but it could be generalized for targets with other types of
805     /// implicit widening casts.
806     bool ShrinkDemandedOp(SDValue Op, unsigned BitWidth, const APInt &Demanded,
807                           DebugLoc dl);
808   };
809                                                 
810   /// SimplifyDemandedBits - Look at Op.  At this point, we know that only the
811   /// DemandedMask bits of the result of Op are ever used downstream.  If we can
812   /// use this information to simplify Op, create a new simplified DAG node and
813   /// return true, returning the original and new nodes in Old and New. 
814   /// Otherwise, analyze the expression and return a mask of KnownOne and 
815   /// KnownZero bits for the expression (used to simplify the caller).  
816   /// The KnownZero/One bits may only be accurate for those bits in the 
817   /// DemandedMask.
818   bool SimplifyDemandedBits(SDValue Op, const APInt &DemandedMask, 
819                             APInt &KnownZero, APInt &KnownOne,
820                             TargetLoweringOpt &TLO, unsigned Depth = 0) const;
821   
822   /// computeMaskedBitsForTargetNode - Determine which of the bits specified in
823   /// Mask are known to be either zero or one and return them in the 
824   /// KnownZero/KnownOne bitsets.
825   virtual void computeMaskedBitsForTargetNode(const SDValue Op,
826                                               const APInt &Mask,
827                                               APInt &KnownZero, 
828                                               APInt &KnownOne,
829                                               const SelectionDAG &DAG,
830                                               unsigned Depth = 0) const;
831
832   /// ComputeNumSignBitsForTargetNode - This method can be implemented by
833   /// targets that want to expose additional information about sign bits to the
834   /// DAG Combiner.
835   virtual unsigned ComputeNumSignBitsForTargetNode(SDValue Op,
836                                                    unsigned Depth = 0) const;
837   
838   struct DAGCombinerInfo {
839     void *DC;  // The DAG Combiner object.
840     bool BeforeLegalize;
841     bool BeforeLegalizeOps;
842     bool CalledByLegalizer;
843   public:
844     SelectionDAG &DAG;
845     
846     DAGCombinerInfo(SelectionDAG &dag, bool bl, bool blo, bool cl, void *dc)
847       : DC(dc), BeforeLegalize(bl), BeforeLegalizeOps(blo),
848         CalledByLegalizer(cl), DAG(dag) {}
849     
850     bool isBeforeLegalize() const { return BeforeLegalize; }
851     bool isBeforeLegalizeOps() const { return BeforeLegalizeOps; }
852     bool isCalledByLegalizer() const { return CalledByLegalizer; }
853     
854     void AddToWorklist(SDNode *N);
855     SDValue CombineTo(SDNode *N, const std::vector<SDValue> &To,
856                       bool AddTo = true);
857     SDValue CombineTo(SDNode *N, SDValue Res, bool AddTo = true);
858     SDValue CombineTo(SDNode *N, SDValue Res0, SDValue Res1, bool AddTo = true);
859
860     void CommitTargetLoweringOpt(const TargetLoweringOpt &TLO);
861   };
862
863   /// SimplifySetCC - Try to simplify a setcc built with the specified operands 
864   /// and cc. If it is unable to simplify it, return a null SDValue.
865   SDValue SimplifySetCC(EVT VT, SDValue N0, SDValue N1,
866                           ISD::CondCode Cond, bool foldBooleans,
867                           DAGCombinerInfo &DCI, DebugLoc dl) const;
868
869   /// isGAPlusOffset - Returns true (and the GlobalValue and the offset) if the
870   /// node is a GlobalAddress + offset.
871   virtual bool
872   isGAPlusOffset(SDNode *N, GlobalValue* &GA, int64_t &Offset) const;
873
874   /// isConsecutiveLoad - Return true if LD is loading 'Bytes' bytes from a 
875   /// location that is 'Dist' units away from the location that the 'Base' load 
876   /// is loading from.
877   bool isConsecutiveLoad(LoadSDNode *LD, LoadSDNode *Base, unsigned Bytes,
878                          int Dist, const MachineFrameInfo *MFI) const;
879
880   /// PerformDAGCombine - This method will be invoked for all target nodes and
881   /// for any target-independent nodes that the target has registered with
882   /// invoke it for.
883   ///
884   /// The semantics are as follows:
885   /// Return Value:
886   ///   SDValue.Val == 0   - No change was made
887   ///   SDValue.Val == N   - N was replaced, is dead, and is already handled.
888   ///   otherwise          - N should be replaced by the returned Operand.
889   ///
890   /// In addition, methods provided by DAGCombinerInfo may be used to perform
891   /// more complex transformations.
892   ///
893   virtual SDValue PerformDAGCombine(SDNode *N, DAGCombinerInfo &DCI) const;
894   
895   //===--------------------------------------------------------------------===//
896   // TargetLowering Configuration Methods - These methods should be invoked by
897   // the derived class constructor to configure this object for the target.
898   //
899
900 protected:
901   /// setUsesGlobalOffsetTable - Specify that this target does or doesn't use a
902   /// GOT for PC-relative code.
903   void setUsesGlobalOffsetTable(bool V) { UsesGlobalOffsetTable = V; }
904
905   /// setShiftAmountType - Describe the type that should be used for shift
906   /// amounts.  This type defaults to the pointer type.
907   void setShiftAmountType(MVT VT) { ShiftAmountTy = VT; }
908
909   /// setBooleanContents - Specify how the target extends the result of a
910   /// boolean value from i1 to a wider type.  See getBooleanContents.
911   void setBooleanContents(BooleanContent Ty) { BooleanContents = Ty; }
912
913   /// setSchedulingPreference - Specify the target scheduling preference.
914   void setSchedulingPreference(SchedPreference Pref) {
915     SchedPreferenceInfo = Pref;
916   }
917
918   /// setUseUnderscoreSetJmp - Indicate whether this target prefers to
919   /// use _setjmp to implement llvm.setjmp or the non _ version.
920   /// Defaults to false.
921   void setUseUnderscoreSetJmp(bool Val) {
922     UseUnderscoreSetJmp = Val;
923   }
924
925   /// setUseUnderscoreLongJmp - Indicate whether this target prefers to
926   /// use _longjmp to implement llvm.longjmp or the non _ version.
927   /// Defaults to false.
928   void setUseUnderscoreLongJmp(bool Val) {
929     UseUnderscoreLongJmp = Val;
930   }
931
932   /// setStackPointerRegisterToSaveRestore - If set to a physical register, this
933   /// specifies the register that llvm.savestack/llvm.restorestack should save
934   /// and restore.
935   void setStackPointerRegisterToSaveRestore(unsigned R) {
936     StackPointerRegisterToSaveRestore = R;
937   }
938   
939   /// setExceptionPointerRegister - If set to a physical register, this sets
940   /// the register that receives the exception address on entry to a landing
941   /// pad.
942   void setExceptionPointerRegister(unsigned R) {
943     ExceptionPointerRegister = R;
944   }
945
946   /// setExceptionSelectorRegister - If set to a physical register, this sets
947   /// the register that receives the exception typeid on entry to a landing
948   /// pad.
949   void setExceptionSelectorRegister(unsigned R) {
950     ExceptionSelectorRegister = R;
951   }
952
953   /// SelectIsExpensive - Tells the code generator not to expand operations
954   /// into sequences that use the select operations if possible.
955   void setSelectIsExpensive() { SelectIsExpensive = true; }
956
957   /// setIntDivIsCheap - Tells the code generator that integer divide is
958   /// expensive, and if possible, should be replaced by an alternate sequence
959   /// of instructions not containing an integer divide.
960   void setIntDivIsCheap(bool isCheap = true) { IntDivIsCheap = isCheap; }
961   
962   /// setPow2DivIsCheap - Tells the code generator that it shouldn't generate
963   /// srl/add/sra for a signed divide by power of two, and let the target handle
964   /// it.
965   void setPow2DivIsCheap(bool isCheap = true) { Pow2DivIsCheap = isCheap; }
966   
967   /// addRegisterClass - Add the specified register class as an available
968   /// regclass for the specified value type.  This indicates the selector can
969   /// handle values of that class natively.
970   void addRegisterClass(EVT VT, TargetRegisterClass *RC) {
971     assert((unsigned)VT.getSimpleVT().SimpleTy < array_lengthof(RegClassForVT));
972     AvailableRegClasses.push_back(std::make_pair(VT, RC));
973     RegClassForVT[VT.getSimpleVT().SimpleTy] = RC;
974   }
975
976   /// computeRegisterProperties - Once all of the register classes are added,
977   /// this allows us to compute derived properties we expose.
978   void computeRegisterProperties();
979
980   /// setOperationAction - Indicate that the specified operation does not work
981   /// with the specified type and indicate what to do about it.
982   void setOperationAction(unsigned Op, MVT VT,
983                           LegalizeAction Action) {
984     unsigned I = (unsigned)VT.SimpleTy;
985     unsigned J = I & 31;
986     I = I >> 5;
987     OpActions[I][Op] &= ~(uint64_t(3UL) << (J*2));
988     OpActions[I][Op] |= (uint64_t)Action << (J*2);
989   }
990   
991   /// setLoadExtAction - Indicate that the specified load with extension does
992   /// not work with the with specified type and indicate what to do about it.
993   void setLoadExtAction(unsigned ExtType, MVT VT,
994                       LegalizeAction Action) {
995     assert((unsigned)VT.SimpleTy < sizeof(LoadExtActions[0])*4 &&
996            ExtType < array_lengthof(LoadExtActions) &&
997            "Table isn't big enough!");
998     LoadExtActions[ExtType] &= ~(uint64_t(3UL) << VT.SimpleTy*2);
999     LoadExtActions[ExtType] |= (uint64_t)Action << VT.SimpleTy*2;
1000   }
1001   
1002   /// setTruncStoreAction - Indicate that the specified truncating store does
1003   /// not work with the with specified type and indicate what to do about it.
1004   void setTruncStoreAction(MVT ValVT, MVT MemVT,
1005                            LegalizeAction Action) {
1006     assert((unsigned)ValVT.SimpleTy < array_lengthof(TruncStoreActions) &&
1007            (unsigned)MemVT.SimpleTy < sizeof(TruncStoreActions[0])*4 &&
1008            "Table isn't big enough!");
1009     TruncStoreActions[ValVT.SimpleTy] &= ~(uint64_t(3UL)  << MemVT.SimpleTy*2);
1010     TruncStoreActions[ValVT.SimpleTy] |= (uint64_t)Action << MemVT.SimpleTy*2;
1011   }
1012
1013   /// setIndexedLoadAction - Indicate that the specified indexed load does or
1014   /// does not work with the with specified type and indicate what to do abort
1015   /// it. NOTE: All indexed mode loads are initialized to Expand in
1016   /// TargetLowering.cpp
1017   void setIndexedLoadAction(unsigned IdxMode, MVT VT,
1018                             LegalizeAction Action) {
1019     assert((unsigned)VT.SimpleTy < MVT::LAST_VALUETYPE &&
1020            IdxMode < array_lengthof(IndexedModeActions[0][0]) &&
1021            "Table isn't big enough!");
1022     IndexedModeActions[(unsigned)VT.SimpleTy][0][IdxMode] = (uint8_t)Action;
1023   }
1024   
1025   /// setIndexedStoreAction - Indicate that the specified indexed store does or
1026   /// does not work with the with specified type and indicate what to do about
1027   /// it. NOTE: All indexed mode stores are initialized to Expand in
1028   /// TargetLowering.cpp
1029   void setIndexedStoreAction(unsigned IdxMode, MVT VT,
1030                              LegalizeAction Action) {
1031     assert((unsigned)VT.SimpleTy < MVT::LAST_VALUETYPE &&
1032            IdxMode < array_lengthof(IndexedModeActions[0][1] ) &&
1033            "Table isn't big enough!");
1034     IndexedModeActions[(unsigned)VT.SimpleTy][1][IdxMode] = (uint8_t)Action;
1035   }
1036   
1037   /// setConvertAction - Indicate that the specified conversion does or does
1038   /// not work with the with specified type and indicate what to do about it.
1039   void setConvertAction(MVT FromVT, MVT ToVT,
1040                         LegalizeAction Action) {
1041     assert((unsigned)FromVT.SimpleTy < array_lengthof(ConvertActions) &&
1042            (unsigned)ToVT.SimpleTy < sizeof(ConvertActions[0])*4 &&
1043            "Table isn't big enough!");
1044     ConvertActions[FromVT.SimpleTy] &= ~(uint64_t(3UL)  << ToVT.SimpleTy*2);
1045     ConvertActions[FromVT.SimpleTy] |= (uint64_t)Action << ToVT.SimpleTy*2;
1046   }
1047
1048   /// setCondCodeAction - Indicate that the specified condition code is or isn't
1049   /// supported on the target and indicate what to do about it.
1050   void setCondCodeAction(ISD::CondCode CC, MVT VT,
1051                          LegalizeAction Action) {
1052     assert((unsigned)VT.SimpleTy < sizeof(CondCodeActions[0])*4 &&
1053            (unsigned)CC < array_lengthof(CondCodeActions) &&
1054            "Table isn't big enough!");
1055     CondCodeActions[(unsigned)CC] &= ~(uint64_t(3UL)  << VT.SimpleTy*2);
1056     CondCodeActions[(unsigned)CC] |= (uint64_t)Action << VT.SimpleTy*2;
1057   }
1058
1059   /// AddPromotedToType - If Opc/OrigVT is specified as being promoted, the
1060   /// promotion code defaults to trying a larger integer/fp until it can find
1061   /// one that works.  If that default is insufficient, this method can be used
1062   /// by the target to override the default.
1063   void AddPromotedToType(unsigned Opc, MVT OrigVT, MVT DestVT) {
1064     PromoteToType[std::make_pair(Opc, OrigVT.SimpleTy)] = DestVT.SimpleTy;
1065   }
1066
1067   /// addLegalFPImmediate - Indicate that this target can instruction select
1068   /// the specified FP immediate natively.
1069   void addLegalFPImmediate(const APFloat& Imm) {
1070     LegalFPImmediates.push_back(Imm);
1071   }
1072
1073   /// setTargetDAGCombine - Targets should invoke this method for each target
1074   /// independent node that they want to provide a custom DAG combiner for by
1075   /// implementing the PerformDAGCombine virtual method.
1076   void setTargetDAGCombine(ISD::NodeType NT) {
1077     assert(unsigned(NT >> 3) < array_lengthof(TargetDAGCombineArray));
1078     TargetDAGCombineArray[NT >> 3] |= 1 << (NT&7);
1079   }
1080   
1081   /// setJumpBufSize - Set the target's required jmp_buf buffer size (in
1082   /// bytes); default is 200
1083   void setJumpBufSize(unsigned Size) {
1084     JumpBufSize = Size;
1085   }
1086
1087   /// setJumpBufAlignment - Set the target's required jmp_buf buffer
1088   /// alignment (in bytes); default is 0
1089   void setJumpBufAlignment(unsigned Align) {
1090     JumpBufAlignment = Align;
1091   }
1092
1093   /// setIfCvtBlockSizeLimit - Set the target's if-conversion block size
1094   /// limit (in number of instructions); default is 2.
1095   void setIfCvtBlockSizeLimit(unsigned Limit) {
1096     IfCvtBlockSizeLimit = Limit;
1097   }
1098   
1099   /// setIfCvtDupBlockSizeLimit - Set the target's block size limit (in number
1100   /// of instructions) to be considered for code duplication during
1101   /// if-conversion; default is 2.
1102   void setIfCvtDupBlockSizeLimit(unsigned Limit) {
1103     IfCvtDupBlockSizeLimit = Limit;
1104   }
1105
1106   /// setPrefLoopAlignment - Set the target's preferred loop alignment. Default
1107   /// alignment is zero, it means the target does not care about loop alignment.
1108   void setPrefLoopAlignment(unsigned Align) {
1109     PrefLoopAlignment = Align;
1110   }
1111   
1112 public:
1113
1114   virtual const TargetSubtarget *getSubtarget() {
1115     assert(0 && "Not Implemented");
1116     return NULL;    // this is here to silence compiler errors
1117   }
1118
1119   //===--------------------------------------------------------------------===//
1120   // Lowering methods - These methods must be implemented by targets so that
1121   // the SelectionDAGLowering code knows how to lower these.
1122   //
1123
1124   /// LowerFormalArguments - This hook must be implemented to lower the
1125   /// incoming (formal) arguments, described by the Ins array, into the
1126   /// specified DAG. The implementation should fill in the InVals array
1127   /// with legal-type argument values, and return the resulting token
1128   /// chain value.
1129   ///
1130   virtual SDValue
1131     LowerFormalArguments(SDValue Chain,
1132                          unsigned CallConv, bool isVarArg,
1133                          const SmallVectorImpl<ISD::InputArg> &Ins,
1134                          DebugLoc dl, SelectionDAG &DAG,
1135                          SmallVectorImpl<SDValue> &InVals) {
1136     assert(0 && "Not Implemented");
1137     return SDValue();    // this is here to silence compiler errors
1138   }
1139
1140   /// LowerCallTo - This function lowers an abstract call to a function into an
1141   /// actual call.  This returns a pair of operands.  The first element is the
1142   /// return value for the function (if RetTy is not VoidTy).  The second
1143   /// element is the outgoing token chain. It calls LowerCall to do the actual
1144   /// lowering.
1145   struct ArgListEntry {
1146     SDValue Node;
1147     const Type* Ty;
1148     bool isSExt  : 1;
1149     bool isZExt  : 1;
1150     bool isInReg : 1;
1151     bool isSRet  : 1;
1152     bool isNest  : 1;
1153     bool isByVal : 1;
1154     uint16_t Alignment;
1155
1156     ArgListEntry() : isSExt(false), isZExt(false), isInReg(false),
1157       isSRet(false), isNest(false), isByVal(false), Alignment(0) { }
1158   };
1159   typedef std::vector<ArgListEntry> ArgListTy;
1160   std::pair<SDValue, SDValue>
1161   LowerCallTo(SDValue Chain, const Type *RetTy, bool RetSExt, bool RetZExt,
1162               bool isVarArg, bool isInreg, unsigned NumFixedArgs,
1163               unsigned CallConv, bool isTailCall, bool isReturnValueUsed,
1164               SDValue Callee, ArgListTy &Args, SelectionDAG &DAG, DebugLoc dl);
1165
1166   /// LowerCall - This hook must be implemented to lower calls into the
1167   /// the specified DAG. The outgoing arguments to the call are described
1168   /// by the Outs array, and the values to be returned by the call are
1169   /// described by the Ins array. The implementation should fill in the
1170   /// InVals array with legal-type return values from the call, and return
1171   /// the resulting token chain value.
1172   ///
1173   /// The isTailCall flag here is normative. If it is true, the
1174   /// implementation must emit a tail call. The
1175   /// IsEligibleForTailCallOptimization hook should be used to catch
1176   /// cases that cannot be handled.
1177   ///
1178   virtual SDValue
1179     LowerCall(SDValue Chain, SDValue Callee,
1180               unsigned CallConv, bool isVarArg, bool isTailCall,
1181               const SmallVectorImpl<ISD::OutputArg> &Outs,
1182               const SmallVectorImpl<ISD::InputArg> &Ins,
1183               DebugLoc dl, SelectionDAG &DAG,
1184               SmallVectorImpl<SDValue> &InVals) {
1185     assert(0 && "Not Implemented");
1186     return SDValue();    // this is here to silence compiler errors
1187   }
1188
1189   /// LowerReturn - This hook must be implemented to lower outgoing
1190   /// return values, described by the Outs array, into the specified
1191   /// DAG. The implementation should return the resulting token chain
1192   /// value.
1193   ///
1194   virtual SDValue
1195     LowerReturn(SDValue Chain, unsigned CallConv, bool isVarArg,
1196                 const SmallVectorImpl<ISD::OutputArg> &Outs,
1197                 DebugLoc dl, SelectionDAG &DAG) {
1198     assert(0 && "Not Implemented");
1199     return SDValue();    // this is here to silence compiler errors
1200   }
1201
1202   /// EmitTargetCodeForMemcpy - Emit target-specific code that performs a
1203   /// memcpy. This can be used by targets to provide code sequences for cases
1204   /// that don't fit the target's parameters for simple loads/stores and can be
1205   /// more efficient than using a library call. This function can return a null
1206   /// SDValue if the target declines to use custom code and a different
1207   /// lowering strategy should be used.
1208   /// 
1209   /// If AlwaysInline is true, the size is constant and the target should not
1210   /// emit any calls and is strongly encouraged to attempt to emit inline code
1211   /// even if it is beyond the usual threshold because this intrinsic is being
1212   /// expanded in a place where calls are not feasible (e.g. within the prologue
1213   /// for another call). If the target chooses to decline an AlwaysInline
1214   /// request here, legalize will resort to using simple loads and stores.
1215   virtual SDValue
1216   EmitTargetCodeForMemcpy(SelectionDAG &DAG, DebugLoc dl,
1217                           SDValue Chain,
1218                           SDValue Op1, SDValue Op2,
1219                           SDValue Op3, unsigned Align,
1220                           bool AlwaysInline,
1221                           const Value *DstSV, uint64_t DstOff,
1222                           const Value *SrcSV, uint64_t SrcOff) {
1223     return SDValue();
1224   }
1225
1226   /// EmitTargetCodeForMemmove - Emit target-specific code that performs a
1227   /// memmove. This can be used by targets to provide code sequences for cases
1228   /// that don't fit the target's parameters for simple loads/stores and can be
1229   /// more efficient than using a library call. This function can return a null
1230   /// SDValue if the target declines to use custom code and a different
1231   /// lowering strategy should be used.
1232   virtual SDValue
1233   EmitTargetCodeForMemmove(SelectionDAG &DAG, DebugLoc dl,
1234                            SDValue Chain,
1235                            SDValue Op1, SDValue Op2,
1236                            SDValue Op3, unsigned Align,
1237                            const Value *DstSV, uint64_t DstOff,
1238                            const Value *SrcSV, uint64_t SrcOff) {
1239     return SDValue();
1240   }
1241
1242   /// EmitTargetCodeForMemset - Emit target-specific code that performs a
1243   /// memset. This can be used by targets to provide code sequences for cases
1244   /// that don't fit the target's parameters for simple stores and can be more
1245   /// efficient than using a library call. This function can return a null
1246   /// SDValue if the target declines to use custom code and a different
1247   /// lowering strategy should be used.
1248   virtual SDValue
1249   EmitTargetCodeForMemset(SelectionDAG &DAG, DebugLoc dl,
1250                           SDValue Chain,
1251                           SDValue Op1, SDValue Op2,
1252                           SDValue Op3, unsigned Align,
1253                           const Value *DstSV, uint64_t DstOff) {
1254     return SDValue();
1255   }
1256
1257   /// LowerOperationWrapper - This callback is invoked by the type legalizer
1258   /// to legalize nodes with an illegal operand type but legal result types.
1259   /// It replaces the LowerOperation callback in the type Legalizer.
1260   /// The reason we can not do away with LowerOperation entirely is that
1261   /// LegalizeDAG isn't yet ready to use this callback.
1262   /// TODO: Consider merging with ReplaceNodeResults.
1263
1264   /// The target places new result values for the node in Results (their number
1265   /// and types must exactly match those of the original return values of
1266   /// the node), or leaves Results empty, which indicates that the node is not
1267   /// to be custom lowered after all.
1268   /// The default implementation calls LowerOperation.
1269   virtual void LowerOperationWrapper(SDNode *N,
1270                                      SmallVectorImpl<SDValue> &Results,
1271                                      SelectionDAG &DAG);
1272
1273   /// LowerOperation - This callback is invoked for operations that are 
1274   /// unsupported by the target, which are registered to use 'custom' lowering,
1275   /// and whose defined values are all legal.
1276   /// If the target has no operations that require custom lowering, it need not
1277   /// implement this.  The default implementation of this aborts.
1278   virtual SDValue LowerOperation(SDValue Op, SelectionDAG &DAG);
1279
1280   /// ReplaceNodeResults - This callback is invoked when a node result type is
1281   /// illegal for the target, and the operation was registered to use 'custom'
1282   /// lowering for that result type.  The target places new result values for
1283   /// the node in Results (their number and types must exactly match those of
1284   /// the original return values of the node), or leaves Results empty, which
1285   /// indicates that the node is not to be custom lowered after all.
1286   ///
1287   /// If the target has no operations that require custom lowering, it need not
1288   /// implement this.  The default implementation aborts.
1289   virtual void ReplaceNodeResults(SDNode *N, SmallVectorImpl<SDValue> &Results,
1290                                   SelectionDAG &DAG) {
1291     assert(0 && "ReplaceNodeResults not implemented for this target!");
1292   }
1293
1294   /// IsEligibleForTailCallOptimization - Check whether the call is eligible for
1295   /// tail call optimization. Targets which want to do tail call optimization
1296   /// should override this function.
1297   virtual bool
1298   IsEligibleForTailCallOptimization(SDValue Callee,
1299                                     unsigned CalleeCC,
1300                                     bool isVarArg,
1301                                     const SmallVectorImpl<ISD::InputArg> &Ins,
1302                                     SelectionDAG& DAG) const {
1303     // Conservative default: no calls are eligible.
1304     return false;
1305   }
1306
1307   /// GetPossiblePreceedingTailCall - Get preceeding TailCallNodeOpCode node if
1308   /// it exists. Skip a possible ISD::TokenFactor.
1309   static SDValue GetPossiblePreceedingTailCall(SDValue Chain,
1310                                                  unsigned TailCallNodeOpCode) {
1311     if (Chain.getOpcode() == TailCallNodeOpCode) {
1312       return Chain;
1313     } else if (Chain.getOpcode() == ISD::TokenFactor) {
1314       if (Chain.getNumOperands() &&
1315           Chain.getOperand(0).getOpcode() == TailCallNodeOpCode)
1316         return Chain.getOperand(0);
1317     }
1318     return Chain;
1319   }
1320
1321   /// getTargetNodeName() - This method returns the name of a target specific
1322   /// DAG node.
1323   virtual const char *getTargetNodeName(unsigned Opcode) const;
1324
1325   /// createFastISel - This method returns a target specific FastISel object,
1326   /// or null if the target does not support "fast" ISel.
1327   virtual FastISel *
1328   createFastISel(MachineFunction &,
1329                  MachineModuleInfo *, DwarfWriter *,
1330                  DenseMap<const Value *, unsigned> &,
1331                  DenseMap<const BasicBlock *, MachineBasicBlock *> &,
1332                  DenseMap<const AllocaInst *, int> &
1333 #ifndef NDEBUG
1334                  , SmallSet<Instruction*, 8> &CatchInfoLost
1335 #endif
1336                  ) {
1337     return 0;
1338   }
1339
1340   //===--------------------------------------------------------------------===//
1341   // Inline Asm Support hooks
1342   //
1343   
1344   /// ExpandInlineAsm - This hook allows the target to expand an inline asm
1345   /// call to be explicit llvm code if it wants to.  This is useful for
1346   /// turning simple inline asms into LLVM intrinsics, which gives the
1347   /// compiler more information about the behavior of the code.
1348   virtual bool ExpandInlineAsm(CallInst *CI) const {
1349     return false;
1350   }
1351   
1352   enum ConstraintType {
1353     C_Register,            // Constraint represents specific register(s).
1354     C_RegisterClass,       // Constraint represents any of register(s) in class.
1355     C_Memory,              // Memory constraint.
1356     C_Other,               // Something else.
1357     C_Unknown              // Unsupported constraint.
1358   };
1359   
1360   /// AsmOperandInfo - This contains information for each constraint that we are
1361   /// lowering.
1362   struct AsmOperandInfo : public InlineAsm::ConstraintInfo {
1363     /// ConstraintCode - This contains the actual string for the code, like "m".
1364     /// TargetLowering picks the 'best' code from ConstraintInfo::Codes that
1365     /// most closely matches the operand.
1366     std::string ConstraintCode;
1367
1368     /// ConstraintType - Information about the constraint code, e.g. Register,
1369     /// RegisterClass, Memory, Other, Unknown.
1370     TargetLowering::ConstraintType ConstraintType;
1371   
1372     /// CallOperandval - If this is the result output operand or a
1373     /// clobber, this is null, otherwise it is the incoming operand to the
1374     /// CallInst.  This gets modified as the asm is processed.
1375     Value *CallOperandVal;
1376   
1377     /// ConstraintVT - The ValueType for the operand value.
1378     EVT ConstraintVT;
1379     
1380     /// isMatchingInputConstraint - Return true of this is an input operand that
1381     /// is a matching constraint like "4".
1382     bool isMatchingInputConstraint() const;
1383     
1384     /// getMatchedOperand - If this is an input matching constraint, this method
1385     /// returns the output operand it matches.
1386     unsigned getMatchedOperand() const;
1387   
1388     AsmOperandInfo(const InlineAsm::ConstraintInfo &info)
1389       : InlineAsm::ConstraintInfo(info), 
1390         ConstraintType(TargetLowering::C_Unknown),
1391         CallOperandVal(0), ConstraintVT(MVT::Other) {
1392     }
1393   };
1394
1395   /// ComputeConstraintToUse - Determines the constraint code and constraint
1396   /// type to use for the specific AsmOperandInfo, setting
1397   /// OpInfo.ConstraintCode and OpInfo.ConstraintType.  If the actual operand
1398   /// being passed in is available, it can be passed in as Op, otherwise an
1399   /// empty SDValue can be passed. If hasMemory is true it means one of the asm
1400   /// constraint of the inline asm instruction being processed is 'm'.
1401   virtual void ComputeConstraintToUse(AsmOperandInfo &OpInfo,
1402                                       SDValue Op,
1403                                       bool hasMemory,
1404                                       SelectionDAG *DAG = 0) const;
1405   
1406   /// getConstraintType - Given a constraint, return the type of constraint it
1407   /// is for this target.
1408   virtual ConstraintType getConstraintType(const std::string &Constraint) const;
1409   
1410   /// getRegClassForInlineAsmConstraint - Given a constraint letter (e.g. "r"),
1411   /// return a list of registers that can be used to satisfy the constraint.
1412   /// This should only be used for C_RegisterClass constraints.
1413   virtual std::vector<unsigned> 
1414   getRegClassForInlineAsmConstraint(const std::string &Constraint,
1415                                     EVT VT) const;
1416
1417   /// getRegForInlineAsmConstraint - Given a physical register constraint (e.g.
1418   /// {edx}), return the register number and the register class for the
1419   /// register.
1420   ///
1421   /// Given a register class constraint, like 'r', if this corresponds directly
1422   /// to an LLVM register class, return a register of 0 and the register class
1423   /// pointer.
1424   ///
1425   /// This should only be used for C_Register constraints.  On error,
1426   /// this returns a register number of 0 and a null register class pointer..
1427   virtual std::pair<unsigned, const TargetRegisterClass*> 
1428     getRegForInlineAsmConstraint(const std::string &Constraint,
1429                                  EVT VT) const;
1430   
1431   /// LowerXConstraint - try to replace an X constraint, which matches anything,
1432   /// with another that has more specific requirements based on the type of the
1433   /// corresponding operand.  This returns null if there is no replacement to
1434   /// make.
1435   virtual const char *LowerXConstraint(EVT ConstraintVT) const;
1436   
1437   /// LowerAsmOperandForConstraint - Lower the specified operand into the Ops
1438   /// vector.  If it is invalid, don't add anything to Ops. If hasMemory is true
1439   /// it means one of the asm constraint of the inline asm instruction being
1440   /// processed is 'm'.
1441   virtual void LowerAsmOperandForConstraint(SDValue Op, char ConstraintLetter,
1442                                             bool hasMemory,
1443                                             std::vector<SDValue> &Ops,
1444                                             SelectionDAG &DAG) const;
1445   
1446   //===--------------------------------------------------------------------===//
1447   // Scheduler hooks
1448   //
1449   
1450   // EmitInstrWithCustomInserter - This method should be implemented by targets
1451   // that mark instructions with the 'usesCustomDAGSchedInserter' flag.  These
1452   // instructions are special in various ways, which require special support to
1453   // insert.  The specified MachineInstr is created but not inserted into any
1454   // basic blocks, and the scheduler passes ownership of it to this method.
1455   virtual MachineBasicBlock *EmitInstrWithCustomInserter(MachineInstr *MI,
1456                                                   MachineBasicBlock *MBB) const;
1457
1458   //===--------------------------------------------------------------------===//
1459   // Addressing mode description hooks (used by LSR etc).
1460   //
1461
1462   /// AddrMode - This represents an addressing mode of:
1463   ///    BaseGV + BaseOffs + BaseReg + Scale*ScaleReg
1464   /// If BaseGV is null,  there is no BaseGV.
1465   /// If BaseOffs is zero, there is no base offset.
1466   /// If HasBaseReg is false, there is no base register.
1467   /// If Scale is zero, there is no ScaleReg.  Scale of 1 indicates a reg with
1468   /// no scale.
1469   ///
1470   struct AddrMode {
1471     GlobalValue *BaseGV;
1472     int64_t      BaseOffs;
1473     bool         HasBaseReg;
1474     int64_t      Scale;
1475     AddrMode() : BaseGV(0), BaseOffs(0), HasBaseReg(false), Scale(0) {}
1476   };
1477   
1478   /// isLegalAddressingMode - Return true if the addressing mode represented by
1479   /// AM is legal for this target, for a load/store of the specified type.
1480   /// The type may be VoidTy, in which case only return true if the addressing
1481   /// mode is legal for a load/store of any legal type.
1482   /// TODO: Handle pre/postinc as well.
1483   virtual bool isLegalAddressingMode(const AddrMode &AM, const Type *Ty) const;
1484
1485   /// isTruncateFree - Return true if it's free to truncate a value of
1486   /// type Ty1 to type Ty2. e.g. On x86 it's free to truncate a i32 value in
1487   /// register EAX to i16 by referencing its sub-register AX.
1488   virtual bool isTruncateFree(const Type *Ty1, const Type *Ty2) const {
1489     return false;
1490   }
1491
1492   virtual bool isTruncateFree(EVT VT1, EVT VT2) const {
1493     return false;
1494   }
1495
1496   /// isZExtFree - Return true if any actual instruction that defines a
1497   /// value of type Ty1 implicit zero-extends the value to Ty2 in the result
1498   /// register. This does not necessarily include registers defined in
1499   /// unknown ways, such as incoming arguments, or copies from unknown
1500   /// virtual registers. Also, if isTruncateFree(Ty2, Ty1) is true, this
1501   /// does not necessarily apply to truncate instructions. e.g. on x86-64,
1502   /// all instructions that define 32-bit values implicit zero-extend the
1503   /// result out to 64 bits.
1504   virtual bool isZExtFree(const Type *Ty1, const Type *Ty2) const {
1505     return false;
1506   }
1507
1508   virtual bool isZExtFree(EVT VT1, EVT VT2) const {
1509     return false;
1510   }
1511
1512   /// isNarrowingProfitable - Return true if it's profitable to narrow
1513   /// operations of type VT1 to VT2. e.g. on x86, it's profitable to narrow
1514   /// from i32 to i8 but not from i32 to i16.
1515   virtual bool isNarrowingProfitable(EVT VT1, EVT VT2) const {
1516     return false;
1517   }
1518
1519   //===--------------------------------------------------------------------===//
1520   // Div utility functions
1521   //
1522   SDValue BuildSDIV(SDNode *N, SelectionDAG &DAG, 
1523                       std::vector<SDNode*>* Created) const;
1524   SDValue BuildUDIV(SDNode *N, SelectionDAG &DAG, 
1525                       std::vector<SDNode*>* Created) const;
1526
1527
1528   //===--------------------------------------------------------------------===//
1529   // Runtime Library hooks
1530   //
1531
1532   /// setLibcallName - Rename the default libcall routine name for the specified
1533   /// libcall.
1534   void setLibcallName(RTLIB::Libcall Call, const char *Name) {
1535     LibcallRoutineNames[Call] = Name;
1536   }
1537
1538   /// getLibcallName - Get the libcall routine name for the specified libcall.
1539   ///
1540   const char *getLibcallName(RTLIB::Libcall Call) const {
1541     return LibcallRoutineNames[Call];
1542   }
1543
1544   /// setCmpLibcallCC - Override the default CondCode to be used to test the
1545   /// result of the comparison libcall against zero.
1546   void setCmpLibcallCC(RTLIB::Libcall Call, ISD::CondCode CC) {
1547     CmpLibcallCCs[Call] = CC;
1548   }
1549
1550   /// getCmpLibcallCC - Get the CondCode that's to be used to test the result of
1551   /// the comparison libcall against zero.
1552   ISD::CondCode getCmpLibcallCC(RTLIB::Libcall Call) const {
1553     return CmpLibcallCCs[Call];
1554   }
1555
1556   /// setLibcallCallingConv - Set the CallingConv that should be used for the
1557   /// specified libcall.
1558   void setLibcallCallingConv(RTLIB::Libcall Call, CallingConv::ID CC) {
1559     LibcallCallingConvs[Call] = CC;
1560   }
1561   
1562   /// getLibcallCallingConv - Get the CallingConv that should be used for the
1563   /// specified libcall.
1564   CallingConv::ID getLibcallCallingConv(RTLIB::Libcall Call) const {
1565     return LibcallCallingConvs[Call];
1566   }
1567
1568 private:
1569   TargetMachine &TM;
1570   const TargetData *TD;
1571   TargetLoweringObjectFile &TLOF;
1572
1573   /// PointerTy - The type to use for pointers, usually i32 or i64.
1574   ///
1575   MVT PointerTy;
1576
1577   /// IsLittleEndian - True if this is a little endian target.
1578   ///
1579   bool IsLittleEndian;
1580
1581   /// UsesGlobalOffsetTable - True if this target uses a GOT for PIC codegen.
1582   ///
1583   bool UsesGlobalOffsetTable;
1584   
1585   /// SelectIsExpensive - Tells the code generator not to expand operations
1586   /// into sequences that use the select operations if possible.
1587   bool SelectIsExpensive;
1588
1589   /// IntDivIsCheap - Tells the code generator not to expand integer divides by
1590   /// constants into a sequence of muls, adds, and shifts.  This is a hack until
1591   /// a real cost model is in place.  If we ever optimize for size, this will be
1592   /// set to true unconditionally.
1593   bool IntDivIsCheap;
1594   
1595   /// Pow2DivIsCheap - Tells the code generator that it shouldn't generate
1596   /// srl/add/sra for a signed divide by power of two, and let the target handle
1597   /// it.
1598   bool Pow2DivIsCheap;
1599   
1600   /// UseUnderscoreSetJmp - This target prefers to use _setjmp to implement
1601   /// llvm.setjmp.  Defaults to false.
1602   bool UseUnderscoreSetJmp;
1603
1604   /// UseUnderscoreLongJmp - This target prefers to use _longjmp to implement
1605   /// llvm.longjmp.  Defaults to false.
1606   bool UseUnderscoreLongJmp;
1607
1608   /// ShiftAmountTy - The type to use for shift amounts, usually i8 or whatever
1609   /// PointerTy is.
1610   MVT ShiftAmountTy;
1611
1612   /// BooleanContents - Information about the contents of the high-bits in
1613   /// boolean values held in a type wider than i1.  See getBooleanContents.
1614   BooleanContent BooleanContents;
1615
1616   /// SchedPreferenceInfo - The target scheduling preference: shortest possible
1617   /// total cycles or lowest register usage.
1618   SchedPreference SchedPreferenceInfo;
1619   
1620   /// JumpBufSize - The size, in bytes, of the target's jmp_buf buffers
1621   unsigned JumpBufSize;
1622   
1623   /// JumpBufAlignment - The alignment, in bytes, of the target's jmp_buf
1624   /// buffers
1625   unsigned JumpBufAlignment;
1626
1627   /// IfCvtBlockSizeLimit - The maximum allowed size for a block to be
1628   /// if-converted.
1629   unsigned IfCvtBlockSizeLimit;
1630   
1631   /// IfCvtDupBlockSizeLimit - The maximum allowed size for a block to be
1632   /// duplicated during if-conversion.
1633   unsigned IfCvtDupBlockSizeLimit;
1634
1635   /// PrefLoopAlignment - The perferred loop alignment.
1636   ///
1637   unsigned PrefLoopAlignment;
1638
1639   /// StackPointerRegisterToSaveRestore - If set to a physical register, this
1640   /// specifies the register that llvm.savestack/llvm.restorestack should save
1641   /// and restore.
1642   unsigned StackPointerRegisterToSaveRestore;
1643
1644   /// ExceptionPointerRegister - If set to a physical register, this specifies
1645   /// the register that receives the exception address on entry to a landing
1646   /// pad.
1647   unsigned ExceptionPointerRegister;
1648
1649   /// ExceptionSelectorRegister - If set to a physical register, this specifies
1650   /// the register that receives the exception typeid on entry to a landing
1651   /// pad.
1652   unsigned ExceptionSelectorRegister;
1653
1654   /// RegClassForVT - This indicates the default register class to use for
1655   /// each ValueType the target supports natively.
1656   TargetRegisterClass *RegClassForVT[MVT::LAST_VALUETYPE];
1657   unsigned char NumRegistersForVT[MVT::LAST_VALUETYPE];
1658   EVT RegisterTypeForVT[MVT::LAST_VALUETYPE];
1659
1660   /// TransformToType - For any value types we are promoting or expanding, this
1661   /// contains the value type that we are changing to.  For Expanded types, this
1662   /// contains one step of the expand (e.g. i64 -> i32), even if there are
1663   /// multiple steps required (e.g. i64 -> i16).  For types natively supported
1664   /// by the system, this holds the same type (e.g. i32 -> i32).
1665   EVT TransformToType[MVT::LAST_VALUETYPE];
1666
1667   /// OpActions - For each operation and each value type, keep a LegalizeAction
1668   /// that indicates how instruction selection should deal with the operation.
1669   /// Most operations are Legal (aka, supported natively by the target), but
1670   /// operations that are not should be described.  Note that operations on
1671   /// non-legal value types are not described here.
1672   /// This array is accessed using VT.getSimpleVT(), so it is subject to
1673   /// the MVT::MAX_ALLOWED_VALUETYPE * 2 bits.
1674   uint64_t OpActions[MVT::MAX_ALLOWED_VALUETYPE/(sizeof(uint64_t)*4)][ISD::BUILTIN_OP_END];
1675   
1676   /// LoadExtActions - For each load of load extension type and each value type,
1677   /// keep a LegalizeAction that indicates how instruction selection should deal
1678   /// with the load.
1679   uint64_t LoadExtActions[ISD::LAST_LOADEXT_TYPE];
1680   
1681   /// TruncStoreActions - For each truncating store, keep a LegalizeAction that
1682   /// indicates how instruction selection should deal with the store.
1683   uint64_t TruncStoreActions[MVT::LAST_VALUETYPE];
1684
1685   /// IndexedModeActions - For each indexed mode and each value type,
1686   /// keep a pair of LegalizeAction that indicates how instruction
1687   /// selection should deal with the load / store.  The first
1688   /// dimension is now the value_type for the reference.  The second
1689   /// dimension is the load [0] vs. store[1].  The third dimension
1690   /// represents the various modes for load store.
1691   uint8_t IndexedModeActions[MVT::LAST_VALUETYPE][2][ISD::LAST_INDEXED_MODE];
1692   
1693   /// ConvertActions - For each conversion from source type to destination type,
1694   /// keep a LegalizeAction that indicates how instruction selection should
1695   /// deal with the conversion.
1696   /// Currently, this is used only for floating->floating conversions
1697   /// (FP_EXTEND and FP_ROUND).
1698   uint64_t ConvertActions[MVT::LAST_VALUETYPE];
1699
1700   /// CondCodeActions - For each condition code (ISD::CondCode) keep a
1701   /// LegalizeAction that indicates how instruction selection should
1702   /// deal with the condition code.
1703   uint64_t CondCodeActions[ISD::SETCC_INVALID];
1704
1705   ValueTypeActionImpl ValueTypeActions;
1706
1707   std::vector<APFloat> LegalFPImmediates;
1708
1709   std::vector<std::pair<EVT, TargetRegisterClass*> > AvailableRegClasses;
1710
1711   /// TargetDAGCombineArray - Targets can specify ISD nodes that they would
1712   /// like PerformDAGCombine callbacks for by calling setTargetDAGCombine(),
1713   /// which sets a bit in this array.
1714   unsigned char
1715   TargetDAGCombineArray[(ISD::BUILTIN_OP_END+CHAR_BIT-1)/CHAR_BIT];
1716   
1717   /// PromoteToType - For operations that must be promoted to a specific type,
1718   /// this holds the destination type.  This map should be sparse, so don't hold
1719   /// it as an array.
1720   ///
1721   /// Targets add entries to this map with AddPromotedToType(..), clients access
1722   /// this with getTypeToPromoteTo(..).
1723   std::map<std::pair<unsigned, MVT::SimpleValueType>, MVT::SimpleValueType>
1724     PromoteToType;
1725
1726   /// LibcallRoutineNames - Stores the name each libcall.
1727   ///
1728   const char *LibcallRoutineNames[RTLIB::UNKNOWN_LIBCALL];
1729
1730   /// CmpLibcallCCs - The ISD::CondCode that should be used to test the result
1731   /// of each of the comparison libcall against zero.
1732   ISD::CondCode CmpLibcallCCs[RTLIB::UNKNOWN_LIBCALL];
1733
1734   /// LibcallCallingConvs - Stores the CallingConv that should be used for each
1735   /// libcall.
1736   CallingConv::ID LibcallCallingConvs[RTLIB::UNKNOWN_LIBCALL];
1737
1738 protected:
1739   /// When lowering \@llvm.memset this field specifies the maximum number of
1740   /// store operations that may be substituted for the call to memset. Targets
1741   /// must set this value based on the cost threshold for that target. Targets
1742   /// should assume that the memset will be done using as many of the largest
1743   /// store operations first, followed by smaller ones, if necessary, per
1744   /// alignment restrictions. For example, storing 9 bytes on a 32-bit machine
1745   /// with 16-bit alignment would result in four 2-byte stores and one 1-byte
1746   /// store.  This only applies to setting a constant array of a constant size.
1747   /// @brief Specify maximum number of store instructions per memset call.
1748   unsigned maxStoresPerMemset;
1749
1750   /// When lowering \@llvm.memcpy this field specifies the maximum number of
1751   /// store operations that may be substituted for a call to memcpy. Targets
1752   /// must set this value based on the cost threshold for that target. Targets
1753   /// should assume that the memcpy will be done using as many of the largest
1754   /// store operations first, followed by smaller ones, if necessary, per
1755   /// alignment restrictions. For example, storing 7 bytes on a 32-bit machine
1756   /// with 32-bit alignment would result in one 4-byte store, a one 2-byte store
1757   /// and one 1-byte store. This only applies to copying a constant array of
1758   /// constant size.
1759   /// @brief Specify maximum bytes of store instructions per memcpy call.
1760   unsigned maxStoresPerMemcpy;
1761
1762   /// When lowering \@llvm.memmove this field specifies the maximum number of
1763   /// store instructions that may be substituted for a call to memmove. Targets
1764   /// must set this value based on the cost threshold for that target. Targets
1765   /// should assume that the memmove will be done using as many of the largest
1766   /// store operations first, followed by smaller ones, if necessary, per
1767   /// alignment restrictions. For example, moving 9 bytes on a 32-bit machine
1768   /// with 8-bit alignment would result in nine 1-byte stores.  This only
1769   /// applies to copying a constant array of constant size.
1770   /// @brief Specify maximum bytes of store instructions per memmove call.
1771   unsigned maxStoresPerMemmove;
1772
1773   /// This field specifies whether the target can benefit from code placement
1774   /// optimization.
1775   bool benefitFromCodePlacementOpt;
1776 };
1777 } // end llvm namespace
1778
1779 #endif