Rename registers to break output dependencies in addition to anti-dependencies.
[oota-llvm.git] / lib / CodeGen / LatencyPriorityQueue.cpp
1 //===---- LatencyPriorityQueue.cpp - A latency-oriented priority queue ----===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file implements the LatencyPriorityQueue class, which is a
11 // SchedulingPriorityQueue that schedules using latency information to
12 // reduce the length of the critical path through the basic block.
13 //
14 //===----------------------------------------------------------------------===//
15
16 #define DEBUG_TYPE "scheduler"
17 #include "llvm/CodeGen/LatencyPriorityQueue.h"
18 #include "llvm/Support/Debug.h"
19 using namespace llvm;
20
21 bool latency_sort::operator()(const SUnit *LHS, const SUnit *RHS) const {
22   // The isScheduleHigh flag allows nodes with wraparound dependencies that
23   // cannot easily be modeled as edges with latencies to be scheduled as
24   // soon as possible in a top-down schedule.
25   if (LHS->isScheduleHigh && !RHS->isScheduleHigh)
26     return false;
27   if (!LHS->isScheduleHigh && RHS->isScheduleHigh)
28     return true;
29
30   unsigned LHSNum = LHS->NodeNum;
31   unsigned RHSNum = RHS->NodeNum;
32
33   // The most important heuristic is scheduling the critical path.
34   unsigned LHSLatency = PQ->getLatency(LHSNum);
35   unsigned RHSLatency = PQ->getLatency(RHSNum);
36   if (LHSLatency < RHSLatency) return true;
37   if (LHSLatency > RHSLatency) return false;
38   
39   // After that, if two nodes have identical latencies, look to see if one will
40   // unblock more other nodes than the other.
41   unsigned LHSBlocked = PQ->getNumSolelyBlockNodes(LHSNum);
42   unsigned RHSBlocked = PQ->getNumSolelyBlockNodes(RHSNum);
43   if (LHSBlocked < RHSBlocked) return true;
44   if (LHSBlocked > RHSBlocked) return false;
45   
46   // Finally, just to provide a stable ordering, use the node number as a
47   // deciding factor.
48   return LHSNum < RHSNum;
49 }
50
51
52 /// getSingleUnscheduledPred - If there is exactly one unscheduled predecessor
53 /// of SU, return it, otherwise return null.
54 SUnit *LatencyPriorityQueue::getSingleUnscheduledPred(SUnit *SU) {
55   SUnit *OnlyAvailablePred = 0;
56   for (SUnit::const_pred_iterator I = SU->Preds.begin(), E = SU->Preds.end();
57        I != E; ++I) {
58     if (IgnoreAntiDep && 
59         ((I->getKind() == SDep::Anti) || (I->getKind() == SDep::Output))) 
60       continue;
61
62     SUnit &Pred = *I->getSUnit();
63     if (!Pred.isScheduled) {
64       // We found an available, but not scheduled, predecessor.  If it's the
65       // only one we have found, keep track of it... otherwise give up.
66       if (OnlyAvailablePred && OnlyAvailablePred != &Pred)
67         return 0;
68       OnlyAvailablePred = &Pred;
69     }
70   }
71       
72   return OnlyAvailablePred;
73 }
74
75 void LatencyPriorityQueue::push_impl(SUnit *SU) {
76   // Look at all of the successors of this node.  Count the number of nodes that
77   // this node is the sole unscheduled node for.
78   unsigned NumNodesBlocking = 0;
79   for (SUnit::const_succ_iterator I = SU->Succs.begin(), E = SU->Succs.end();
80        I != E; ++I) {
81     if (IgnoreAntiDep && 
82         ((I->getKind() == SDep::Anti) || (I->getKind() == SDep::Output))) 
83       continue;
84
85     if (getSingleUnscheduledPred(I->getSUnit()) == SU)
86       ++NumNodesBlocking;
87   }
88   NumNodesSolelyBlocking[SU->NodeNum] = NumNodesBlocking;
89   
90   Queue.push(SU);
91 }
92
93
94 // ScheduledNode - As nodes are scheduled, we look to see if there are any
95 // successor nodes that have a single unscheduled predecessor.  If so, that
96 // single predecessor has a higher priority, since scheduling it will make
97 // the node available.
98 void LatencyPriorityQueue::ScheduledNode(SUnit *SU) {
99   for (SUnit::const_succ_iterator I = SU->Succs.begin(), E = SU->Succs.end();
100        I != E; ++I) {
101     if (IgnoreAntiDep && 
102         ((I->getKind() == SDep::Anti) || (I->getKind() == SDep::Output))) 
103       continue;
104
105     AdjustPriorityOfUnscheduledPreds(I->getSUnit());
106   }
107 }
108
109 /// AdjustPriorityOfUnscheduledPreds - One of the predecessors of SU was just
110 /// scheduled.  If SU is not itself available, then there is at least one
111 /// predecessor node that has not been scheduled yet.  If SU has exactly ONE
112 /// unscheduled predecessor, we want to increase its priority: it getting
113 /// scheduled will make this node available, so it is better than some other
114 /// node of the same priority that will not make a node available.
115 void LatencyPriorityQueue::AdjustPriorityOfUnscheduledPreds(SUnit *SU) {
116   if (SU->isAvailable) return;  // All preds scheduled.
117   
118   SUnit *OnlyAvailablePred = getSingleUnscheduledPred(SU);
119   if (OnlyAvailablePred == 0 || !OnlyAvailablePred->isAvailable) return;
120   
121   // Okay, we found a single predecessor that is available, but not scheduled.
122   // Since it is available, it must be in the priority queue.  First remove it.
123   remove(OnlyAvailablePred);
124
125   // Reinsert the node into the priority queue, which recomputes its
126   // NumNodesSolelyBlocking value.
127   push(OnlyAvailablePred);
128 }