f6e57a6d5b57f12cfd8b577e42eecab00fcd8efc
[oota-llvm.git] / lib / Target / AMDGPU / SIPrepareScratchRegs.cpp
1 //===-- SIPrepareScratchRegs.cpp - Use predicates for control flow --------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 /// \file
11 ///
12 /// This pass loads scratch pointer and scratch offset into a register or a
13 /// frame index which can be used anywhere in the program.  These values will
14 /// be used for spilling VGPRs.
15 ///
16 //===----------------------------------------------------------------------===//
17
18 #include "AMDGPU.h"
19 #include "AMDGPUSubtarget.h"
20 #include "SIDefines.h"
21 #include "SIInstrInfo.h"
22 #include "SIMachineFunctionInfo.h"
23 #include "llvm/CodeGen/MachineFrameInfo.h"
24 #include "llvm/CodeGen/MachineFunction.h"
25 #include "llvm/CodeGen/MachineFunctionPass.h"
26 #include "llvm/CodeGen/MachineInstrBuilder.h"
27 #include "llvm/CodeGen/MachineRegisterInfo.h"
28 #include "llvm/CodeGen/RegisterScavenging.h"
29 #include "llvm/IR/Function.h"
30 #include "llvm/IR/LLVMContext.h"
31
32 using namespace llvm;
33
34 namespace {
35
36 class SIPrepareScratchRegs : public MachineFunctionPass {
37
38 private:
39   static char ID;
40
41 public:
42   SIPrepareScratchRegs() : MachineFunctionPass(ID) { }
43
44   bool runOnMachineFunction(MachineFunction &MF) override;
45
46   const char *getPassName() const override {
47     return "SI prepare scratch registers";
48   }
49
50   void getAnalysisUsage(AnalysisUsage &AU) const override {
51     AU.setPreservesCFG();
52     MachineFunctionPass::getAnalysisUsage(AU);
53   }
54 };
55
56 } // End anonymous namespace
57
58 char SIPrepareScratchRegs::ID = 0;
59
60 FunctionPass *llvm::createSIPrepareScratchRegs() {
61   return new SIPrepareScratchRegs();
62 }
63
64 bool SIPrepareScratchRegs::runOnMachineFunction(MachineFunction &MF) {
65   SIMachineFunctionInfo *MFI = MF.getInfo<SIMachineFunctionInfo>();
66   const SIInstrInfo *TII =
67       static_cast<const SIInstrInfo *>(MF.getSubtarget().getInstrInfo());
68   const SIRegisterInfo *TRI = &TII->getRegisterInfo();
69   MachineRegisterInfo &MRI = MF.getRegInfo();
70   MachineFrameInfo *FrameInfo = MF.getFrameInfo();
71   MachineBasicBlock *Entry = MF.begin();
72   MachineBasicBlock::iterator I = Entry->begin();
73   DebugLoc DL = I->getDebugLoc();
74
75   // FIXME: If we don't have enough VGPRs for SGPR spilling we will need to
76   // run this pass.
77   if (!MFI->hasSpilledVGPRs())
78     return false;
79
80   unsigned ScratchPtrPreloadReg =
81       TRI->getPreloadedValue(MF, SIRegisterInfo::SCRATCH_PTR);
82   unsigned ScratchOffsetPreloadReg =
83       TRI->getPreloadedValue(MF, SIRegisterInfo::SCRATCH_WAVE_OFFSET);
84
85   if (!Entry->isLiveIn(ScratchPtrPreloadReg))
86     Entry->addLiveIn(ScratchPtrPreloadReg);
87
88   if (!Entry->isLiveIn(ScratchOffsetPreloadReg))
89     Entry->addLiveIn(ScratchOffsetPreloadReg);
90
91   // Load the scratch offset.
92   unsigned ScratchOffsetReg =
93       TRI->findUnusedRegister(MRI, &AMDGPU::SGPR_32RegClass);
94   int ScratchOffsetFI = -1;
95
96   if (ScratchOffsetReg != AMDGPU::NoRegister) {
97     // Found an SGPR to use
98     BuildMI(*Entry, I, DL, TII->get(AMDGPU::S_MOV_B32), ScratchOffsetReg)
99             .addReg(ScratchOffsetPreloadReg);
100   } else {
101     // No SGPR is available, we must spill.
102     ScratchOffsetFI = FrameInfo->CreateSpillStackObject(4,4);
103     BuildMI(*Entry, I, DL, TII->get(AMDGPU::SI_SPILL_S32_SAVE))
104             .addReg(ScratchOffsetPreloadReg)
105             .addFrameIndex(ScratchOffsetFI)
106             .addReg(AMDGPU::SGPR0_SGPR1_SGPR2_SGPR3, RegState::Undef)
107             .addReg(AMDGPU::SGPR0, RegState::Undef);
108   }
109
110
111   // Now that we have the scratch pointer and offset values, we need to
112   // add them to all the SI_SPILL_V* instructions.
113
114   RegScavenger RS;
115   unsigned ScratchRsrcFI = FrameInfo->CreateSpillStackObject(16, 4);
116   RS.addScavengingFrameIndex(ScratchRsrcFI);
117
118   for (MachineFunction::iterator BI = MF.begin(), BE = MF.end();
119        BI != BE; ++BI) {
120
121     MachineBasicBlock &MBB = *BI;
122     // Add the scratch offset reg as a live-in so that the register scavenger
123     // doesn't re-use it.
124     if (!MBB.isLiveIn(ScratchOffsetReg) &&
125         ScratchOffsetReg != AMDGPU::NoRegister)
126       MBB.addLiveIn(ScratchOffsetReg);
127     RS.enterBasicBlock(&MBB);
128
129     for (MachineBasicBlock::iterator I = MBB.begin(), E = MBB.end();
130          I != E; ++I) {
131       MachineInstr &MI = *I;
132       RS.forward(I);
133       DebugLoc DL = MI.getDebugLoc();
134       if (!TII->isVGPRSpill(MI.getOpcode()))
135         continue;
136
137       // Scratch resource
138       unsigned ScratchRsrcReg =
139           RS.scavengeRegister(&AMDGPU::SReg_128RegClass, 0);
140
141       uint64_t Rsrc = AMDGPU::RSRC_DATA_FORMAT | AMDGPU::RSRC_TID_ENABLE |
142                       0xffffffff; // Size
143
144       unsigned Rsrc0 = TRI->getSubReg(ScratchRsrcReg, AMDGPU::sub0);
145       unsigned Rsrc1 = TRI->getSubReg(ScratchRsrcReg, AMDGPU::sub1);
146       unsigned Rsrc2 = TRI->getSubReg(ScratchRsrcReg, AMDGPU::sub2);
147       unsigned Rsrc3 = TRI->getSubReg(ScratchRsrcReg, AMDGPU::sub3);
148
149       BuildMI(MBB, I, DL, TII->get(AMDGPU::S_MOV_B32), Rsrc0)
150               .addExternalSymbol("SCRATCH_RSRC_DWORD0")
151               .addReg(ScratchRsrcReg, RegState::ImplicitDefine);
152
153       BuildMI(MBB, I, DL, TII->get(AMDGPU::S_MOV_B32), Rsrc1)
154               .addExternalSymbol("SCRATCH_RSRC_DWORD1")
155               .addReg(ScratchRsrcReg, RegState::ImplicitDefine);
156
157       BuildMI(MBB, I, DL, TII->get(AMDGPU::S_MOV_B32), Rsrc2)
158               .addImm(Rsrc & 0xffffffff)
159               .addReg(ScratchRsrcReg, RegState::ImplicitDefine);
160
161       BuildMI(MBB, I, DL, TII->get(AMDGPU::S_MOV_B32), Rsrc3)
162               .addImm(Rsrc >> 32)
163               .addReg(ScratchRsrcReg, RegState::ImplicitDefine);
164
165       // Scratch Offset
166       if (ScratchOffsetReg == AMDGPU::NoRegister) {
167         ScratchOffsetReg = RS.scavengeRegister(&AMDGPU::SGPR_32RegClass, 0);
168         BuildMI(MBB, I, DL, TII->get(AMDGPU::SI_SPILL_S32_RESTORE),
169                 ScratchOffsetReg)
170                 .addFrameIndex(ScratchOffsetFI)
171                 .addReg(AMDGPU::SGPR0_SGPR1_SGPR2_SGPR3, RegState::Undef)
172                 .addReg(AMDGPU::SGPR0, RegState::Undef);
173       } else if (!MBB.isLiveIn(ScratchOffsetReg)) {
174         MBB.addLiveIn(ScratchOffsetReg);
175       }
176
177       if (ScratchRsrcReg == AMDGPU::NoRegister ||
178           ScratchOffsetReg == AMDGPU::NoRegister) {
179         LLVMContext &Ctx = MF.getFunction()->getContext();
180         Ctx.emitError("ran out of SGPRs for spilling VGPRs");
181         ScratchRsrcReg = AMDGPU::SGPR0;
182         ScratchOffsetReg = AMDGPU::SGPR0;
183       }
184       MI.getOperand(2).setReg(ScratchRsrcReg);
185       MI.getOperand(2).setIsKill(true);
186       MI.getOperand(2).setIsUndef(false);
187       MI.getOperand(3).setReg(ScratchOffsetReg);
188       MI.getOperand(3).setIsUndef(false);
189       MI.getOperand(3).setIsKill(false);
190       MI.addOperand(MachineOperand::CreateReg(Rsrc0, false, true, true));
191       MI.addOperand(MachineOperand::CreateReg(Rsrc1, false, true, true));
192       MI.addOperand(MachineOperand::CreateReg(Rsrc2, false, true, true));
193       MI.addOperand(MachineOperand::CreateReg(Rsrc3, false, true, true));
194     }
195   }
196   return true;
197 }