Revert 239644.
[oota-llvm.git] / lib / Target / R600 / AMDGPUTargetMachine.cpp
1 //===-- AMDGPUTargetMachine.cpp - TargetMachine for hw codegen targets-----===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 /// \file
11 /// \brief The AMDGPU target machine contains all of the hardware specific
12 /// information  needed to emit code for R600 and SI GPUs.
13 //
14 //===----------------------------------------------------------------------===//
15
16 #include "AMDGPUTargetMachine.h"
17 #include "AMDGPU.h"
18 #include "AMDGPUTargetTransformInfo.h"
19 #include "R600ISelLowering.h"
20 #include "R600InstrInfo.h"
21 #include "R600MachineScheduler.h"
22 #include "SIISelLowering.h"
23 #include "SIInstrInfo.h"
24 #include "llvm/Analysis/Passes.h"
25 #include "llvm/CodeGen/MachineFunctionAnalysis.h"
26 #include "llvm/CodeGen/TargetLoweringObjectFileImpl.h"
27 #include "llvm/CodeGen/MachineModuleInfo.h"
28 #include "llvm/CodeGen/Passes.h"
29 #include "llvm/IR/Verifier.h"
30 #include "llvm/MC/MCAsmInfo.h"
31 #include "llvm/IR/LegacyPassManager.h"
32 #include "llvm/Support/TargetRegistry.h"
33 #include "llvm/Support/raw_os_ostream.h"
34 #include "llvm/Transforms/IPO.h"
35 #include "llvm/Transforms/Scalar.h"
36 #include <llvm/CodeGen/Passes.h>
37
38 using namespace llvm;
39
40 extern "C" void LLVMInitializeR600Target() {
41   // Register the target
42   RegisterTargetMachine<R600TargetMachine> X(TheAMDGPUTarget);
43   RegisterTargetMachine<GCNTargetMachine> Y(TheGCNTarget);
44 }
45
46 static ScheduleDAGInstrs *createR600MachineScheduler(MachineSchedContext *C) {
47   return new ScheduleDAGMILive(C, make_unique<R600SchedStrategy>());
48 }
49
50 static MachineSchedRegistry
51 SchedCustomRegistry("r600", "Run R600's custom scheduler",
52                     createR600MachineScheduler);
53
54 static std::string computeDataLayout(const Triple &TT) {
55   std::string Ret = "e-p:32:32";
56
57   if (TT.getArch() == Triple::amdgcn) {
58     // 32-bit private, local, and region pointers. 64-bit global and constant.
59     Ret += "-p1:64:64-p2:64:64-p3:32:32-p4:64:64-p5:32:32-p24:64:64";
60   }
61
62   Ret += "-i64:64-v16:16-v24:32-v32:32-v48:64-v96:128-v192:256-v256:256"
63          "-v512:512-v1024:1024-v2048:2048-n32:64";
64
65   return Ret;
66 }
67
68 AMDGPUTargetMachine::AMDGPUTargetMachine(const Target &T, const Triple &TT,
69                                          StringRef CPU, StringRef FS,
70                                          TargetOptions Options, Reloc::Model RM,
71                                          CodeModel::Model CM,
72                                          CodeGenOpt::Level OptLevel)
73     : LLVMTargetMachine(T, computeDataLayout(TT), TT, CPU, FS, Options, RM, CM,
74                         OptLevel),
75       TLOF(new TargetLoweringObjectFileELF()), Subtarget(TT, CPU, FS, *this),
76       IntrinsicInfo() {
77   setRequiresStructuredCFG(true);
78   initAsmInfo();
79 }
80
81 AMDGPUTargetMachine::~AMDGPUTargetMachine() {
82   delete TLOF;
83 }
84
85 //===----------------------------------------------------------------------===//
86 // R600 Target Machine (R600 -> Cayman)
87 //===----------------------------------------------------------------------===//
88
89 R600TargetMachine::R600TargetMachine(const Target &T, const Triple &TT,
90                                      StringRef FS, StringRef CPU,
91                                      TargetOptions Options, Reloc::Model RM,
92                                      CodeModel::Model CM, CodeGenOpt::Level OL)
93     : AMDGPUTargetMachine(T, TT, FS, CPU, Options, RM, CM, OL) {}
94
95 //===----------------------------------------------------------------------===//
96 // GCN Target Machine (SI+)
97 //===----------------------------------------------------------------------===//
98
99 GCNTargetMachine::GCNTargetMachine(const Target &T, const Triple &TT,
100                                    StringRef FS, StringRef CPU,
101                                    TargetOptions Options, Reloc::Model RM,
102                                    CodeModel::Model CM, CodeGenOpt::Level OL)
103     : AMDGPUTargetMachine(T, TT, FS, CPU, Options, RM, CM, OL) {}
104
105 //===----------------------------------------------------------------------===//
106 // AMDGPU Pass Setup
107 //===----------------------------------------------------------------------===//
108
109 namespace {
110 class AMDGPUPassConfig : public TargetPassConfig {
111 public:
112   AMDGPUPassConfig(TargetMachine *TM, PassManagerBase &PM)
113     : TargetPassConfig(TM, PM) {}
114
115   AMDGPUTargetMachine &getAMDGPUTargetMachine() const {
116     return getTM<AMDGPUTargetMachine>();
117   }
118
119   ScheduleDAGInstrs *
120   createMachineScheduler(MachineSchedContext *C) const override {
121     const AMDGPUSubtarget &ST = *getAMDGPUTargetMachine().getSubtargetImpl();
122     if (ST.getGeneration() <= AMDGPUSubtarget::NORTHERN_ISLANDS)
123       return createR600MachineScheduler(C);
124     return nullptr;
125   }
126
127   void addIRPasses() override;
128   void addCodeGenPrepare() override;
129   virtual bool addPreISel() override;
130   virtual bool addInstSelector() override;
131 };
132
133 class R600PassConfig : public AMDGPUPassConfig {
134 public:
135   R600PassConfig(TargetMachine *TM, PassManagerBase &PM)
136     : AMDGPUPassConfig(TM, PM) { }
137
138   bool addPreISel() override;
139   void addPreRegAlloc() override;
140   void addPreSched2() override;
141   void addPreEmitPass() override;
142 };
143
144 class GCNPassConfig : public AMDGPUPassConfig {
145 public:
146   GCNPassConfig(TargetMachine *TM, PassManagerBase &PM)
147     : AMDGPUPassConfig(TM, PM) { }
148   bool addPreISel() override;
149   bool addInstSelector() override;
150   void addPreRegAlloc() override;
151   void addPostRegAlloc() override;
152   void addPreSched2() override;
153   void addPreEmitPass() override;
154 };
155
156 } // End of anonymous namespace
157
158 TargetIRAnalysis AMDGPUTargetMachine::getTargetIRAnalysis() {
159   return TargetIRAnalysis(
160       [this](Function &F) { return TargetTransformInfo(AMDGPUTTIImpl(this)); });
161 }
162
163 void AMDGPUPassConfig::addIRPasses() {
164   // Function calls are not supported, so make sure we inline everything.
165   addPass(createAMDGPUAlwaysInlinePass());
166   addPass(createAlwaysInlinerPass());
167   // We need to add the barrier noop pass, otherwise adding the function
168   // inlining pass will cause all of the PassConfigs passes to be run
169   // one function at a time, which means if we have a nodule with two
170   // functions, then we will generate code for the first function
171   // without ever running any passes on the second.
172   addPass(createBarrierNoopPass());
173   TargetPassConfig::addIRPasses();
174 }
175
176 void AMDGPUPassConfig::addCodeGenPrepare() {
177   const AMDGPUSubtarget &ST = *getAMDGPUTargetMachine().getSubtargetImpl();
178   if (ST.isPromoteAllocaEnabled()) {
179     addPass(createAMDGPUPromoteAlloca(ST));
180     addPass(createSROAPass());
181   }
182   TargetPassConfig::addCodeGenPrepare();
183 }
184
185 bool
186 AMDGPUPassConfig::addPreISel() {
187   const AMDGPUSubtarget &ST = *getAMDGPUTargetMachine().getSubtargetImpl();
188   addPass(createFlattenCFGPass());
189   if (ST.IsIRStructurizerEnabled())
190     addPass(createStructurizeCFGPass());
191   return false;
192 }
193
194 bool AMDGPUPassConfig::addInstSelector() {
195   addPass(createAMDGPUISelDag(getAMDGPUTargetMachine()));
196   return false;
197 }
198
199 //===----------------------------------------------------------------------===//
200 // R600 Pass Setup
201 //===----------------------------------------------------------------------===//
202
203 bool R600PassConfig::addPreISel() {
204   AMDGPUPassConfig::addPreISel();
205   addPass(createR600TextureIntrinsicsReplacer());
206   return false;
207 }
208
209 void R600PassConfig::addPreRegAlloc() {
210   addPass(createR600VectorRegMerger(*TM));
211 }
212
213 void R600PassConfig::addPreSched2() {
214   const AMDGPUSubtarget &ST = *getAMDGPUTargetMachine().getSubtargetImpl();
215   addPass(createR600EmitClauseMarkers(), false);
216   if (ST.isIfCvtEnabled())
217     addPass(&IfConverterID, false);
218   addPass(createR600ClauseMergePass(*TM), false);
219 }
220
221 void R600PassConfig::addPreEmitPass() {
222   addPass(createAMDGPUCFGStructurizerPass(), false);
223   addPass(createR600ExpandSpecialInstrsPass(*TM), false);
224   addPass(&FinalizeMachineBundlesID, false);
225   addPass(createR600Packetizer(*TM), false);
226   addPass(createR600ControlFlowFinalizer(*TM), false);
227 }
228
229 TargetPassConfig *R600TargetMachine::createPassConfig(PassManagerBase &PM) {
230   return new R600PassConfig(this, PM);
231 }
232
233 //===----------------------------------------------------------------------===//
234 // GCN Pass Setup
235 //===----------------------------------------------------------------------===//
236
237 bool GCNPassConfig::addPreISel() {
238   AMDGPUPassConfig::addPreISel();
239   addPass(createSinkingPass());
240   addPass(createSITypeRewriter());
241   addPass(createSIAnnotateControlFlowPass());
242   return false;
243 }
244
245 bool GCNPassConfig::addInstSelector() {
246   AMDGPUPassConfig::addInstSelector();
247   addPass(createSILowerI1CopiesPass());
248   addPass(createSIFixSGPRCopiesPass(*TM));
249   addPass(createSIFoldOperandsPass());
250   return false;
251 }
252
253 void GCNPassConfig::addPreRegAlloc() {
254   const AMDGPUSubtarget &ST = *getAMDGPUTargetMachine().getSubtargetImpl();
255
256   // This needs to be run directly before register allocation because
257   // earlier passes might recompute live intervals.
258   // TODO: handle CodeGenOpt::None; fast RA ignores spill weights set by the pass
259   if (getOptLevel() > CodeGenOpt::None) {
260     initializeSIFixControlFlowLiveIntervalsPass(*PassRegistry::getPassRegistry());
261     insertPass(&MachineSchedulerID, &SIFixControlFlowLiveIntervalsID);
262   }
263
264   if (getOptLevel() > CodeGenOpt::None && ST.loadStoreOptEnabled()) {
265     // Don't do this with no optimizations since it throws away debug info by
266     // merging nonadjacent loads.
267
268     // This should be run after scheduling, but before register allocation. It
269     // also need extra copies to the address operand to be eliminated.
270     initializeSILoadStoreOptimizerPass(*PassRegistry::getPassRegistry());
271     insertPass(&MachineSchedulerID, &SILoadStoreOptimizerID);
272   }
273   addPass(createSIShrinkInstructionsPass(), false);
274   addPass(createSIFixSGPRLiveRangesPass(), false);
275 }
276
277 void GCNPassConfig::addPostRegAlloc() {
278   addPass(createSIPrepareScratchRegs(), false);
279   addPass(createSIShrinkInstructionsPass(), false);
280 }
281
282 void GCNPassConfig::addPreSched2() {
283   addPass(createSIInsertWaits(*TM), false);
284 }
285
286 void GCNPassConfig::addPreEmitPass() {
287   addPass(createSILowerControlFlowPass(*TM), false);
288 }
289
290 TargetPassConfig *GCNTargetMachine::createPassConfig(PassManagerBase &PM) {
291   return new GCNPassConfig(this, PM);
292 }