[PBQP] Move register-allocation specific PBQP code into RegAllocPBQP.h.
[oota-llvm.git] / include / llvm / CodeGen / RegAllocPBQP.h
1 //===-- RegAllocPBQP.h ------------------------------------------*- C++ -*-===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file defines the PBQPBuilder interface, for classes which build PBQP
11 // instances to represent register allocation problems, and the RegAllocPBQP
12 // interface.
13 //
14 //===----------------------------------------------------------------------===//
15
16 #ifndef LLVM_CODEGEN_REGALLOCPBQP_H
17 #define LLVM_CODEGEN_REGALLOCPBQP_H
18
19 #include "llvm/CodeGen/MachineFunctionPass.h"
20 #include "llvm/CodeGen/PBQPRAConstraint.h"
21 #include "llvm/CodeGen/PBQP/CostAllocator.h"
22 #include "llvm/CodeGen/PBQP/ReductionRules.h"
23 #include "llvm/Support/ErrorHandling.h"
24
25 namespace llvm {
26 namespace PBQP {
27 namespace RegAlloc {
28
29 /// @brief Spill option index.
30 inline unsigned getSpillOptionIdx() { return 0; }
31
32 /// \brief Metadata to speed allocatability test.
33 ///
34 /// Keeps track of the number of infinities in each row and column.
35 class MatrixMetadata {
36 private:
37   MatrixMetadata(const MatrixMetadata&);
38   void operator=(const MatrixMetadata&);
39 public:
40   MatrixMetadata(const Matrix& M)
41     : WorstRow(0), WorstCol(0),
42       UnsafeRows(new bool[M.getRows() - 1]()),
43       UnsafeCols(new bool[M.getCols() - 1]()) {
44
45     unsigned* ColCounts = new unsigned[M.getCols() - 1]();
46
47     for (unsigned i = 1; i < M.getRows(); ++i) {
48       unsigned RowCount = 0;
49       for (unsigned j = 1; j < M.getCols(); ++j) {
50         if (M[i][j] == std::numeric_limits<PBQPNum>::infinity()) {
51           ++RowCount;
52           ++ColCounts[j - 1];
53           UnsafeRows[i - 1] = true;
54           UnsafeCols[j - 1] = true;
55         }
56       }
57       WorstRow = std::max(WorstRow, RowCount);
58     }
59     unsigned WorstColCountForCurRow =
60       *std::max_element(ColCounts, ColCounts + M.getCols() - 1);
61     WorstCol = std::max(WorstCol, WorstColCountForCurRow);
62     delete[] ColCounts;
63   }
64
65   ~MatrixMetadata() {
66     delete[] UnsafeRows;
67     delete[] UnsafeCols;
68   }
69
70   unsigned getWorstRow() const { return WorstRow; }
71   unsigned getWorstCol() const { return WorstCol; }
72   const bool* getUnsafeRows() const { return UnsafeRows; }
73   const bool* getUnsafeCols() const { return UnsafeCols; }
74
75 private:
76   unsigned WorstRow, WorstCol;
77   bool* UnsafeRows;
78   bool* UnsafeCols;
79 };
80
81 class NodeMetadata {
82 public:
83   typedef std::vector<unsigned> OptionToRegMap;
84
85   typedef enum { Unprocessed,
86                  OptimallyReducible,
87                  ConservativelyAllocatable,
88                  NotProvablyAllocatable } ReductionState;
89
90   NodeMetadata() : RS(Unprocessed), DeniedOpts(0), OptUnsafeEdges(nullptr){}
91   ~NodeMetadata() { delete[] OptUnsafeEdges; }
92
93   void setVReg(unsigned VReg) { this->VReg = VReg; }
94   unsigned getVReg() const { return VReg; }
95
96   void setOptionRegs(OptionToRegMap OptionRegs) {
97     this->OptionRegs = std::move(OptionRegs);
98   }
99   const OptionToRegMap& getOptionRegs() const { return OptionRegs; }
100
101   void setup(const Vector& Costs) {
102     NumOpts = Costs.getLength() - 1;
103     OptUnsafeEdges = new unsigned[NumOpts]();
104   }
105
106   ReductionState getReductionState() const { return RS; }
107   void setReductionState(ReductionState RS) { this->RS = RS; }
108
109   void handleAddEdge(const MatrixMetadata& MD, bool Transpose) {
110     DeniedOpts += Transpose ? MD.getWorstCol() : MD.getWorstRow();
111     const bool* UnsafeOpts =
112       Transpose ? MD.getUnsafeCols() : MD.getUnsafeRows();
113     for (unsigned i = 0; i < NumOpts; ++i)
114       OptUnsafeEdges[i] += UnsafeOpts[i];
115   }
116
117   void handleRemoveEdge(const MatrixMetadata& MD, bool Transpose) {
118     DeniedOpts -= Transpose ? MD.getWorstCol() : MD.getWorstRow();
119     const bool* UnsafeOpts =
120       Transpose ? MD.getUnsafeCols() : MD.getUnsafeRows();
121     for (unsigned i = 0; i < NumOpts; ++i)
122       OptUnsafeEdges[i] -= UnsafeOpts[i];
123   }
124
125   bool isConservativelyAllocatable() const {
126     return (DeniedOpts < NumOpts) ||
127       (std::find(OptUnsafeEdges, OptUnsafeEdges + NumOpts, 0) !=
128        OptUnsafeEdges + NumOpts);
129   }
130
131 private:
132   ReductionState RS;
133   unsigned NumOpts;
134   unsigned DeniedOpts;
135   unsigned* OptUnsafeEdges;
136   unsigned VReg;
137   OptionToRegMap OptionRegs;
138 };
139
140 class RegAllocSolverImpl {
141 private:
142   typedef MDMatrix<MatrixMetadata> RAMatrix;
143 public:
144   typedef PBQP::Vector RawVector;
145   typedef PBQP::Matrix RawMatrix;
146   typedef PBQP::Vector Vector;
147   typedef RAMatrix     Matrix;
148   typedef PBQP::PoolCostAllocator<
149     Vector, PBQP::VectorComparator,
150     Matrix, PBQP::MatrixComparator> CostAllocator;
151
152   typedef GraphBase::NodeId NodeId;
153   typedef GraphBase::EdgeId EdgeId;
154
155   typedef RegAlloc::NodeMetadata NodeMetadata;
156
157   struct EdgeMetadata { };
158
159   class GraphMetadata {
160   public:
161     GraphMetadata(MachineFunction &MF,
162                   LiveIntervals &LIS,
163                   MachineBlockFrequencyInfo &MBFI)
164       : MF(MF), LIS(LIS), MBFI(MBFI) {}
165
166     MachineFunction &MF;
167     LiveIntervals &LIS;
168     MachineBlockFrequencyInfo &MBFI;
169
170     void setNodeIdForVReg(unsigned VReg, GraphBase::NodeId NId) {
171       VRegToNodeId[VReg] = NId;
172     }
173
174     GraphBase::NodeId getNodeIdForVReg(unsigned VReg) const {
175       auto VRegItr = VRegToNodeId.find(VReg);
176       if (VRegItr == VRegToNodeId.end())
177         return GraphBase::invalidNodeId();
178       return VRegItr->second;
179     }
180
181     void eraseNodeIdForVReg(unsigned VReg) {
182       VRegToNodeId.erase(VReg);
183     }
184
185   private:
186     DenseMap<unsigned, NodeId> VRegToNodeId;
187   };
188
189   typedef PBQP::Graph<RegAllocSolverImpl> Graph;
190
191   RegAllocSolverImpl(Graph &G) : G(G) {}
192
193   Solution solve() {
194     G.setSolver(*this);
195     Solution S;
196     setup();
197     S = backpropagate(G, reduce());
198     G.unsetSolver();
199     return S;
200   }
201
202   void handleAddNode(NodeId NId) {
203     G.getNodeMetadata(NId).setup(G.getNodeCosts(NId));
204   }
205   void handleRemoveNode(NodeId NId) {}
206   void handleSetNodeCosts(NodeId NId, const Vector& newCosts) {}
207
208   void handleAddEdge(EdgeId EId) {
209     handleReconnectEdge(EId, G.getEdgeNode1Id(EId));
210     handleReconnectEdge(EId, G.getEdgeNode2Id(EId));
211   }
212
213   void handleRemoveEdge(EdgeId EId) {
214     handleDisconnectEdge(EId, G.getEdgeNode1Id(EId));
215     handleDisconnectEdge(EId, G.getEdgeNode2Id(EId));
216   }
217
218   void handleDisconnectEdge(EdgeId EId, NodeId NId) {
219     NodeMetadata& NMd = G.getNodeMetadata(NId);
220     const MatrixMetadata& MMd = G.getEdgeCosts(EId).getMetadata();
221     NMd.handleRemoveEdge(MMd, NId == G.getEdgeNode2Id(EId));
222     if (G.getNodeDegree(NId) == 3) {
223       // This node is becoming optimally reducible.
224       moveToOptimallyReducibleNodes(NId);
225     } else if (NMd.getReductionState() ==
226                NodeMetadata::NotProvablyAllocatable &&
227                NMd.isConservativelyAllocatable()) {
228       // This node just became conservatively allocatable.
229       moveToConservativelyAllocatableNodes(NId);
230     }
231   }
232
233   void handleReconnectEdge(EdgeId EId, NodeId NId) {
234     NodeMetadata& NMd = G.getNodeMetadata(NId);
235     const MatrixMetadata& MMd = G.getEdgeCosts(EId).getMetadata();
236     NMd.handleAddEdge(MMd, NId == G.getEdgeNode2Id(EId));
237   }
238
239   void handleSetEdgeCosts(EdgeId EId, const Matrix& NewCosts) {
240     handleRemoveEdge(EId);
241
242     NodeId N1Id = G.getEdgeNode1Id(EId);
243     NodeId N2Id = G.getEdgeNode2Id(EId);
244     NodeMetadata& N1Md = G.getNodeMetadata(N1Id);
245     NodeMetadata& N2Md = G.getNodeMetadata(N2Id);
246     const MatrixMetadata& MMd = NewCosts.getMetadata();
247     N1Md.handleAddEdge(MMd, N1Id != G.getEdgeNode1Id(EId));
248     N2Md.handleAddEdge(MMd, N2Id != G.getEdgeNode1Id(EId));
249   }
250
251 private:
252
253   void removeFromCurrentSet(NodeId NId) {
254     switch (G.getNodeMetadata(NId).getReductionState()) {
255     case NodeMetadata::Unprocessed: break;
256     case NodeMetadata::OptimallyReducible:
257       assert(OptimallyReducibleNodes.find(NId) !=
258              OptimallyReducibleNodes.end() &&
259              "Node not in optimally reducible set.");
260       OptimallyReducibleNodes.erase(NId);
261       break;
262     case NodeMetadata::ConservativelyAllocatable:
263       assert(ConservativelyAllocatableNodes.find(NId) !=
264              ConservativelyAllocatableNodes.end() &&
265              "Node not in conservatively allocatable set.");
266       ConservativelyAllocatableNodes.erase(NId);
267       break;
268     case NodeMetadata::NotProvablyAllocatable:
269       assert(NotProvablyAllocatableNodes.find(NId) !=
270              NotProvablyAllocatableNodes.end() &&
271              "Node not in not-provably-allocatable set.");
272       NotProvablyAllocatableNodes.erase(NId);
273       break;
274     }
275   }
276
277   void moveToOptimallyReducibleNodes(NodeId NId) {
278     removeFromCurrentSet(NId);
279     OptimallyReducibleNodes.insert(NId);
280     G.getNodeMetadata(NId).setReductionState(
281       NodeMetadata::OptimallyReducible);
282   }
283
284   void moveToConservativelyAllocatableNodes(NodeId NId) {
285     removeFromCurrentSet(NId);
286     ConservativelyAllocatableNodes.insert(NId);
287     G.getNodeMetadata(NId).setReductionState(
288       NodeMetadata::ConservativelyAllocatable);
289   }
290
291   void moveToNotProvablyAllocatableNodes(NodeId NId) {
292     removeFromCurrentSet(NId);
293     NotProvablyAllocatableNodes.insert(NId);
294     G.getNodeMetadata(NId).setReductionState(
295       NodeMetadata::NotProvablyAllocatable);
296   }
297
298   void setup() {
299     // Set up worklists.
300     for (auto NId : G.nodeIds()) {
301       if (G.getNodeDegree(NId) < 3)
302         moveToOptimallyReducibleNodes(NId);
303       else if (G.getNodeMetadata(NId).isConservativelyAllocatable())
304         moveToConservativelyAllocatableNodes(NId);
305       else
306         moveToNotProvablyAllocatableNodes(NId);
307     }
308   }
309
310   // Compute a reduction order for the graph by iteratively applying PBQP
311   // reduction rules. Locally optimal rules are applied whenever possible (R0,
312   // R1, R2). If no locally-optimal rules apply then any conservatively
313   // allocatable node is reduced. Finally, if no conservatively allocatable
314   // node exists then the node with the lowest spill-cost:degree ratio is
315   // selected.
316   std::vector<GraphBase::NodeId> reduce() {
317     assert(!G.empty() && "Cannot reduce empty graph.");
318
319     typedef GraphBase::NodeId NodeId;
320     std::vector<NodeId> NodeStack;
321
322     // Consume worklists.
323     while (true) {
324       if (!OptimallyReducibleNodes.empty()) {
325         NodeSet::iterator NItr = OptimallyReducibleNodes.begin();
326         NodeId NId = *NItr;
327         OptimallyReducibleNodes.erase(NItr);
328         NodeStack.push_back(NId);
329         switch (G.getNodeDegree(NId)) {
330         case 0:
331           break;
332         case 1:
333           applyR1(G, NId);
334           break;
335         case 2:
336           applyR2(G, NId);
337           break;
338         default: llvm_unreachable("Not an optimally reducible node.");
339         }
340       } else if (!ConservativelyAllocatableNodes.empty()) {
341         // Conservatively allocatable nodes will never spill. For now just
342         // take the first node in the set and push it on the stack. When we
343         // start optimizing more heavily for register preferencing, it may
344         // would be better to push nodes with lower 'expected' or worst-case
345         // register costs first (since early nodes are the most
346         // constrained).
347         NodeSet::iterator NItr = ConservativelyAllocatableNodes.begin();
348         NodeId NId = *NItr;
349         ConservativelyAllocatableNodes.erase(NItr);
350         NodeStack.push_back(NId);
351         G.disconnectAllNeighborsFromNode(NId);
352
353       } else if (!NotProvablyAllocatableNodes.empty()) {
354         NodeSet::iterator NItr =
355           std::min_element(NotProvablyAllocatableNodes.begin(),
356                            NotProvablyAllocatableNodes.end(),
357                            SpillCostComparator(G));
358         NodeId NId = *NItr;
359         NotProvablyAllocatableNodes.erase(NItr);
360         NodeStack.push_back(NId);
361         G.disconnectAllNeighborsFromNode(NId);
362       } else
363         break;
364     }
365
366     return NodeStack;
367   }
368
369   class SpillCostComparator {
370   public:
371     SpillCostComparator(const Graph& G) : G(G) {}
372     bool operator()(NodeId N1Id, NodeId N2Id) {
373       PBQPNum N1SC = G.getNodeCosts(N1Id)[0] / G.getNodeDegree(N1Id);
374       PBQPNum N2SC = G.getNodeCosts(N2Id)[0] / G.getNodeDegree(N2Id);
375       return N1SC < N2SC;
376     }
377   private:
378     const Graph& G;
379   };
380
381   Graph& G;
382   typedef std::set<NodeId> NodeSet;
383   NodeSet OptimallyReducibleNodes;
384   NodeSet ConservativelyAllocatableNodes;
385   NodeSet NotProvablyAllocatableNodes;
386 };
387
388 class PBQPRAGraph : public PBQP::Graph<RegAllocSolverImpl> {
389 private:
390   typedef PBQP::Graph<RegAllocSolverImpl> BaseT;
391 public:
392   PBQPRAGraph(GraphMetadata Metadata) : BaseT(Metadata) {}
393 };
394
395 inline Solution solve(PBQPRAGraph& G) {
396   if (G.empty())
397     return Solution();
398   RegAllocSolverImpl RegAllocSolver(G);
399   return RegAllocSolver.solve();
400 }
401
402 } // namespace RegAlloc
403 } // namespace PBQP
404
405 /// @brief Create a PBQP register allocator instance.
406 FunctionPass *
407 createPBQPRegisterAllocator(char *customPassID = nullptr);
408
409 } // namespace llvm
410
411 #endif /* LLVM_CODEGEN_REGALLOCPBQP_H */