Use the 'count' attribute instead of the 'upper_bound' attribute.
[oota-llvm.git] / lib / CodeGen / ScheduleDAG.cpp
1 //===---- ScheduleDAG.cpp - Implement the ScheduleDAG class ---------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This implements the ScheduleDAG class, which is a base class used by
11 // scheduling implementation classes.
12 //
13 //===----------------------------------------------------------------------===//
14
15 #define DEBUG_TYPE "pre-RA-sched"
16 #include "llvm/CodeGen/ScheduleDAG.h"
17 #include "llvm/CodeGen/ScheduleHazardRecognizer.h"
18 #include "llvm/CodeGen/SelectionDAGNodes.h"
19 #include "llvm/Target/TargetMachine.h"
20 #include "llvm/Target/TargetInstrInfo.h"
21 #include "llvm/Target/TargetRegisterInfo.h"
22 #include "llvm/Support/CommandLine.h"
23 #include "llvm/Support/Debug.h"
24 #include "llvm/Support/raw_ostream.h"
25 #include <climits>
26 using namespace llvm;
27
28 #ifndef NDEBUG
29 static cl::opt<bool> StressSchedOpt(
30   "stress-sched", cl::Hidden, cl::init(false),
31   cl::desc("Stress test instruction scheduling"));
32 #endif
33
34 void SchedulingPriorityQueue::anchor() { }
35
36 ScheduleDAG::ScheduleDAG(MachineFunction &mf)
37   : TM(mf.getTarget()),
38     TII(TM.getInstrInfo()),
39     TRI(TM.getRegisterInfo()),
40     MF(mf), MRI(mf.getRegInfo()),
41     EntrySU(), ExitSU() {
42 #ifndef NDEBUG
43   StressSched = StressSchedOpt;
44 #endif
45 }
46
47 ScheduleDAG::~ScheduleDAG() {}
48
49 /// Clear the DAG state (e.g. between scheduling regions).
50 void ScheduleDAG::clearDAG() {
51   SUnits.clear();
52   EntrySU = SUnit();
53   ExitSU = SUnit();
54 }
55
56 /// getInstrDesc helper to handle SDNodes.
57 const MCInstrDesc *ScheduleDAG::getNodeDesc(const SDNode *Node) const {
58   if (!Node || !Node->isMachineOpcode()) return NULL;
59   return &TII->get(Node->getMachineOpcode());
60 }
61
62 /// addPred - This adds the specified edge as a pred of the current node if
63 /// not already.  It also adds the current node as a successor of the
64 /// specified node.
65 bool SUnit::addPred(const SDep &D, bool Required) {
66   // If this node already has this depenence, don't add a redundant one.
67   for (SmallVector<SDep, 4>::iterator I = Preds.begin(), E = Preds.end();
68        I != E; ++I) {
69     // Zero-latency weak edges may be added purely for heuristic ordering. Don't
70     // add them if another kind of edge already exists.
71     if (!Required && I->getSUnit() == D.getSUnit())
72       return false;
73     if (I->overlaps(D)) {
74       // Extend the latency if needed. Equivalent to removePred(I) + addPred(D).
75       if (I->getLatency() < D.getLatency()) {
76         SUnit *PredSU = I->getSUnit();
77         // Find the corresponding successor in N.
78         SDep ForwardD = *I;
79         ForwardD.setSUnit(this);
80         for (SmallVector<SDep, 4>::iterator II = PredSU->Succs.begin(),
81                EE = PredSU->Succs.end(); II != EE; ++II) {
82           if (*II == ForwardD) {
83             II->setLatency(D.getLatency());
84             break;
85           }
86         }
87         I->setLatency(D.getLatency());
88       }
89       return false;
90     }
91   }
92   // Now add a corresponding succ to N.
93   SDep P = D;
94   P.setSUnit(this);
95   SUnit *N = D.getSUnit();
96   // Update the bookkeeping.
97   if (D.getKind() == SDep::Data) {
98     assert(NumPreds < UINT_MAX && "NumPreds will overflow!");
99     assert(N->NumSuccs < UINT_MAX && "NumSuccs will overflow!");
100     ++NumPreds;
101     ++N->NumSuccs;
102   }
103   // SD scheduler relies on artificial edges to enforce physreg
104   // antidependence, so it doesn't treat them as weak edges.
105   bool isWeak = D.isWeak() && N->isInstr();
106   if (!N->isScheduled) {
107     if (isWeak) {
108       ++WeakPredsLeft;
109     }
110     else {
111       assert(NumPredsLeft < UINT_MAX && "NumPredsLeft will overflow!");
112       ++NumPredsLeft;
113     }
114   }
115   if (!isScheduled) {
116     if (isWeak) {
117       ++N->WeakSuccsLeft;
118     }
119     else {
120       assert(N->NumSuccsLeft < UINT_MAX && "NumSuccsLeft will overflow!");
121       ++N->NumSuccsLeft;
122     }
123   }
124   Preds.push_back(D);
125   N->Succs.push_back(P);
126   if (P.getLatency() != 0) {
127     this->setDepthDirty();
128     N->setHeightDirty();
129   }
130   return true;
131 }
132
133 /// removePred - This removes the specified edge as a pred of the current
134 /// node if it exists.  It also removes the current node as a successor of
135 /// the specified node.
136 void SUnit::removePred(const SDep &D) {
137   // Find the matching predecessor.
138   for (SmallVector<SDep, 4>::iterator I = Preds.begin(), E = Preds.end();
139        I != E; ++I)
140     if (*I == D) {
141       bool FoundSucc = false;
142       // Find the corresponding successor in N.
143       SDep P = D;
144       P.setSUnit(this);
145       SUnit *N = D.getSUnit();
146       for (SmallVector<SDep, 4>::iterator II = N->Succs.begin(),
147              EE = N->Succs.end(); II != EE; ++II)
148         if (*II == P) {
149           FoundSucc = true;
150           N->Succs.erase(II);
151           break;
152         }
153       assert(FoundSucc && "Mismatching preds / succs lists!");
154       (void)FoundSucc;
155       Preds.erase(I);
156       // Update the bookkeeping.
157       if (P.getKind() == SDep::Data) {
158         assert(NumPreds > 0 && "NumPreds will underflow!");
159         assert(N->NumSuccs > 0 && "NumSuccs will underflow!");
160         --NumPreds;
161         --N->NumSuccs;
162       }
163       bool isWeak = D.isWeak() && N->isInstr();
164       if (!N->isScheduled) {
165         if (isWeak)
166           --WeakPredsLeft;
167         else {
168           assert(NumPredsLeft > 0 && "NumPredsLeft will underflow!");
169           --NumPredsLeft;
170         }
171       }
172       if (!isScheduled) {
173         if (isWeak)
174           --N->WeakSuccsLeft;
175         else {
176           assert(N->NumSuccsLeft > 0 && "NumSuccsLeft will underflow!");
177           --N->NumSuccsLeft;
178         }
179       }
180       if (P.getLatency() != 0) {
181         this->setDepthDirty();
182         N->setHeightDirty();
183       }
184       return;
185     }
186 }
187
188 void SUnit::setDepthDirty() {
189   if (!isDepthCurrent) return;
190   SmallVector<SUnit*, 8> WorkList;
191   WorkList.push_back(this);
192   do {
193     SUnit *SU = WorkList.pop_back_val();
194     SU->isDepthCurrent = false;
195     for (SUnit::const_succ_iterator I = SU->Succs.begin(),
196          E = SU->Succs.end(); I != E; ++I) {
197       SUnit *SuccSU = I->getSUnit();
198       if (SuccSU->isDepthCurrent)
199         WorkList.push_back(SuccSU);
200     }
201   } while (!WorkList.empty());
202 }
203
204 void SUnit::setHeightDirty() {
205   if (!isHeightCurrent) return;
206   SmallVector<SUnit*, 8> WorkList;
207   WorkList.push_back(this);
208   do {
209     SUnit *SU = WorkList.pop_back_val();
210     SU->isHeightCurrent = false;
211     for (SUnit::const_pred_iterator I = SU->Preds.begin(),
212          E = SU->Preds.end(); I != E; ++I) {
213       SUnit *PredSU = I->getSUnit();
214       if (PredSU->isHeightCurrent)
215         WorkList.push_back(PredSU);
216     }
217   } while (!WorkList.empty());
218 }
219
220 /// setDepthToAtLeast - Update this node's successors to reflect the
221 /// fact that this node's depth just increased.
222 ///
223 void SUnit::setDepthToAtLeast(unsigned NewDepth) {
224   if (NewDepth <= getDepth())
225     return;
226   setDepthDirty();
227   Depth = NewDepth;
228   isDepthCurrent = true;
229 }
230
231 /// setHeightToAtLeast - Update this node's predecessors to reflect the
232 /// fact that this node's height just increased.
233 ///
234 void SUnit::setHeightToAtLeast(unsigned NewHeight) {
235   if (NewHeight <= getHeight())
236     return;
237   setHeightDirty();
238   Height = NewHeight;
239   isHeightCurrent = true;
240 }
241
242 /// ComputeDepth - Calculate the maximal path from the node to the exit.
243 ///
244 void SUnit::ComputeDepth() {
245   SmallVector<SUnit*, 8> WorkList;
246   WorkList.push_back(this);
247   do {
248     SUnit *Cur = WorkList.back();
249
250     bool Done = true;
251     unsigned MaxPredDepth = 0;
252     for (SUnit::const_pred_iterator I = Cur->Preds.begin(),
253          E = Cur->Preds.end(); I != E; ++I) {
254       SUnit *PredSU = I->getSUnit();
255       if (PredSU->isDepthCurrent)
256         MaxPredDepth = std::max(MaxPredDepth,
257                                 PredSU->Depth + I->getLatency());
258       else {
259         Done = false;
260         WorkList.push_back(PredSU);
261       }
262     }
263
264     if (Done) {
265       WorkList.pop_back();
266       if (MaxPredDepth != Cur->Depth) {
267         Cur->setDepthDirty();
268         Cur->Depth = MaxPredDepth;
269       }
270       Cur->isDepthCurrent = true;
271     }
272   } while (!WorkList.empty());
273 }
274
275 /// ComputeHeight - Calculate the maximal path from the node to the entry.
276 ///
277 void SUnit::ComputeHeight() {
278   SmallVector<SUnit*, 8> WorkList;
279   WorkList.push_back(this);
280   do {
281     SUnit *Cur = WorkList.back();
282
283     bool Done = true;
284     unsigned MaxSuccHeight = 0;
285     for (SUnit::const_succ_iterator I = Cur->Succs.begin(),
286          E = Cur->Succs.end(); I != E; ++I) {
287       SUnit *SuccSU = I->getSUnit();
288       if (SuccSU->isHeightCurrent)
289         MaxSuccHeight = std::max(MaxSuccHeight,
290                                  SuccSU->Height + I->getLatency());
291       else {
292         Done = false;
293         WorkList.push_back(SuccSU);
294       }
295     }
296
297     if (Done) {
298       WorkList.pop_back();
299       if (MaxSuccHeight != Cur->Height) {
300         Cur->setHeightDirty();
301         Cur->Height = MaxSuccHeight;
302       }
303       Cur->isHeightCurrent = true;
304     }
305   } while (!WorkList.empty());
306 }
307
308 #if !defined(NDEBUG) || defined(LLVM_ENABLE_DUMP)
309 /// SUnit - Scheduling unit. It's an wrapper around either a single SDNode or
310 /// a group of nodes flagged together.
311 void SUnit::dump(const ScheduleDAG *G) const {
312   dbgs() << "SU(" << NodeNum << "): ";
313   G->dumpNode(this);
314 }
315
316 void SUnit::dumpAll(const ScheduleDAG *G) const {
317   dump(G);
318
319   dbgs() << "  # preds left       : " << NumPredsLeft << "\n";
320   dbgs() << "  # succs left       : " << NumSuccsLeft << "\n";
321   if (WeakPredsLeft)
322     dbgs() << "  # weak preds left  : " << WeakPredsLeft << "\n";
323   if (WeakSuccsLeft)
324     dbgs() << "  # weak succs left  : " << WeakSuccsLeft << "\n";
325   dbgs() << "  # rdefs left       : " << NumRegDefsLeft << "\n";
326   dbgs() << "  Latency            : " << Latency << "\n";
327   dbgs() << "  Depth              : " << Depth << "\n";
328   dbgs() << "  Height             : " << Height << "\n";
329
330   if (Preds.size() != 0) {
331     dbgs() << "  Predecessors:\n";
332     for (SUnit::const_succ_iterator I = Preds.begin(), E = Preds.end();
333          I != E; ++I) {
334       dbgs() << "   ";
335       switch (I->getKind()) {
336       case SDep::Data:        dbgs() << "val "; break;
337       case SDep::Anti:        dbgs() << "anti"; break;
338       case SDep::Output:      dbgs() << "out "; break;
339       case SDep::Order:       dbgs() << "ch  "; break;
340       }
341       dbgs() << "SU(" << I->getSUnit()->NodeNum << ")";
342       if (I->isArtificial())
343         dbgs() << " *";
344       dbgs() << ": Latency=" << I->getLatency();
345       if (I->isAssignedRegDep())
346         dbgs() << " Reg=" << PrintReg(I->getReg(), G->TRI);
347       dbgs() << "\n";
348     }
349   }
350   if (Succs.size() != 0) {
351     dbgs() << "  Successors:\n";
352     for (SUnit::const_succ_iterator I = Succs.begin(), E = Succs.end();
353          I != E; ++I) {
354       dbgs() << "   ";
355       switch (I->getKind()) {
356       case SDep::Data:        dbgs() << "val "; break;
357       case SDep::Anti:        dbgs() << "anti"; break;
358       case SDep::Output:      dbgs() << "out "; break;
359       case SDep::Order:       dbgs() << "ch  "; break;
360       }
361       dbgs() << "SU(" << I->getSUnit()->NodeNum << ")";
362       if (I->isArtificial())
363         dbgs() << " *";
364       dbgs() << ": Latency=" << I->getLatency();
365       dbgs() << "\n";
366     }
367   }
368   dbgs() << "\n";
369 }
370 #endif
371
372 #ifndef NDEBUG
373 /// VerifyScheduledDAG - Verify that all SUnits were scheduled and that
374 /// their state is consistent. Return the number of scheduled nodes.
375 ///
376 unsigned ScheduleDAG::VerifyScheduledDAG(bool isBottomUp) {
377   bool AnyNotSched = false;
378   unsigned DeadNodes = 0;
379   for (unsigned i = 0, e = SUnits.size(); i != e; ++i) {
380     if (!SUnits[i].isScheduled) {
381       if (SUnits[i].NumPreds == 0 && SUnits[i].NumSuccs == 0) {
382         ++DeadNodes;
383         continue;
384       }
385       if (!AnyNotSched)
386         dbgs() << "*** Scheduling failed! ***\n";
387       SUnits[i].dump(this);
388       dbgs() << "has not been scheduled!\n";
389       AnyNotSched = true;
390     }
391     if (SUnits[i].isScheduled &&
392         (isBottomUp ? SUnits[i].getHeight() : SUnits[i].getDepth()) >
393           unsigned(INT_MAX)) {
394       if (!AnyNotSched)
395         dbgs() << "*** Scheduling failed! ***\n";
396       SUnits[i].dump(this);
397       dbgs() << "has an unexpected "
398            << (isBottomUp ? "Height" : "Depth") << " value!\n";
399       AnyNotSched = true;
400     }
401     if (isBottomUp) {
402       if (SUnits[i].NumSuccsLeft != 0) {
403         if (!AnyNotSched)
404           dbgs() << "*** Scheduling failed! ***\n";
405         SUnits[i].dump(this);
406         dbgs() << "has successors left!\n";
407         AnyNotSched = true;
408       }
409     } else {
410       if (SUnits[i].NumPredsLeft != 0) {
411         if (!AnyNotSched)
412           dbgs() << "*** Scheduling failed! ***\n";
413         SUnits[i].dump(this);
414         dbgs() << "has predecessors left!\n";
415         AnyNotSched = true;
416       }
417     }
418   }
419   assert(!AnyNotSched);
420   return SUnits.size() - DeadNodes;
421 }
422 #endif
423
424 /// InitDAGTopologicalSorting - create the initial topological
425 /// ordering from the DAG to be scheduled.
426 ///
427 /// The idea of the algorithm is taken from
428 /// "Online algorithms for managing the topological order of
429 /// a directed acyclic graph" by David J. Pearce and Paul H.J. Kelly
430 /// This is the MNR algorithm, which was first introduced by
431 /// A. Marchetti-Spaccamela, U. Nanni and H. Rohnert in
432 /// "Maintaining a topological order under edge insertions".
433 ///
434 /// Short description of the algorithm:
435 ///
436 /// Topological ordering, ord, of a DAG maps each node to a topological
437 /// index so that for all edges X->Y it is the case that ord(X) < ord(Y).
438 ///
439 /// This means that if there is a path from the node X to the node Z,
440 /// then ord(X) < ord(Z).
441 ///
442 /// This property can be used to check for reachability of nodes:
443 /// if Z is reachable from X, then an insertion of the edge Z->X would
444 /// create a cycle.
445 ///
446 /// The algorithm first computes a topological ordering for the DAG by
447 /// initializing the Index2Node and Node2Index arrays and then tries to keep
448 /// the ordering up-to-date after edge insertions by reordering the DAG.
449 ///
450 /// On insertion of the edge X->Y, the algorithm first marks by calling DFS
451 /// the nodes reachable from Y, and then shifts them using Shift to lie
452 /// immediately after X in Index2Node.
453 void ScheduleDAGTopologicalSort::InitDAGTopologicalSorting() {
454   unsigned DAGSize = SUnits.size();
455   std::vector<SUnit*> WorkList;
456   WorkList.reserve(DAGSize);
457
458   Index2Node.resize(DAGSize);
459   Node2Index.resize(DAGSize);
460
461   // Initialize the data structures.
462   if (ExitSU)
463     WorkList.push_back(ExitSU);
464   for (unsigned i = 0, e = DAGSize; i != e; ++i) {
465     SUnit *SU = &SUnits[i];
466     int NodeNum = SU->NodeNum;
467     unsigned Degree = SU->Succs.size();
468     // Temporarily use the Node2Index array as scratch space for degree counts.
469     Node2Index[NodeNum] = Degree;
470
471     // Is it a node without dependencies?
472     if (Degree == 0) {
473       assert(SU->Succs.empty() && "SUnit should have no successors");
474       // Collect leaf nodes.
475       WorkList.push_back(SU);
476     }
477   }
478
479   int Id = DAGSize;
480   while (!WorkList.empty()) {
481     SUnit *SU = WorkList.back();
482     WorkList.pop_back();
483     if (SU->NodeNum < DAGSize)
484       Allocate(SU->NodeNum, --Id);
485     for (SUnit::const_pred_iterator I = SU->Preds.begin(), E = SU->Preds.end();
486          I != E; ++I) {
487       SUnit *SU = I->getSUnit();
488       if (SU->NodeNum < DAGSize && !--Node2Index[SU->NodeNum])
489         // If all dependencies of the node are processed already,
490         // then the node can be computed now.
491         WorkList.push_back(SU);
492     }
493   }
494
495   Visited.resize(DAGSize);
496
497 #ifndef NDEBUG
498   // Check correctness of the ordering
499   for (unsigned i = 0, e = DAGSize; i != e; ++i) {
500     SUnit *SU = &SUnits[i];
501     for (SUnit::const_pred_iterator I = SU->Preds.begin(), E = SU->Preds.end();
502          I != E; ++I) {
503       assert(Node2Index[SU->NodeNum] > Node2Index[I->getSUnit()->NodeNum] &&
504       "Wrong topological sorting");
505     }
506   }
507 #endif
508 }
509
510 /// AddPred - Updates the topological ordering to accommodate an edge
511 /// to be added from SUnit X to SUnit Y.
512 void ScheduleDAGTopologicalSort::AddPred(SUnit *Y, SUnit *X) {
513   int UpperBound, LowerBound;
514   LowerBound = Node2Index[Y->NodeNum];
515   UpperBound = Node2Index[X->NodeNum];
516   bool HasLoop = false;
517   // Is Ord(X) < Ord(Y) ?
518   if (LowerBound < UpperBound) {
519     // Update the topological order.
520     Visited.reset();
521     DFS(Y, UpperBound, HasLoop);
522     assert(!HasLoop && "Inserted edge creates a loop!");
523     // Recompute topological indexes.
524     Shift(Visited, LowerBound, UpperBound);
525   }
526 }
527
528 /// RemovePred - Updates the topological ordering to accommodate an
529 /// an edge to be removed from the specified node N from the predecessors
530 /// of the current node M.
531 void ScheduleDAGTopologicalSort::RemovePred(SUnit *M, SUnit *N) {
532   // InitDAGTopologicalSorting();
533 }
534
535 /// DFS - Make a DFS traversal to mark all nodes reachable from SU and mark
536 /// all nodes affected by the edge insertion. These nodes will later get new
537 /// topological indexes by means of the Shift method.
538 void ScheduleDAGTopologicalSort::DFS(const SUnit *SU, int UpperBound,
539                                      bool &HasLoop) {
540   std::vector<const SUnit*> WorkList;
541   WorkList.reserve(SUnits.size());
542
543   WorkList.push_back(SU);
544   do {
545     SU = WorkList.back();
546     WorkList.pop_back();
547     Visited.set(SU->NodeNum);
548     for (int I = SU->Succs.size()-1; I >= 0; --I) {
549       unsigned s = SU->Succs[I].getSUnit()->NodeNum;
550       // Edges to non-SUnits are allowed but ignored (e.g. ExitSU).
551       if (s >= Node2Index.size())
552         continue;
553       if (Node2Index[s] == UpperBound) {
554         HasLoop = true;
555         return;
556       }
557       // Visit successors if not already and in affected region.
558       if (!Visited.test(s) && Node2Index[s] < UpperBound) {
559         WorkList.push_back(SU->Succs[I].getSUnit());
560       }
561     }
562   } while (!WorkList.empty());
563 }
564
565 /// Shift - Renumber the nodes so that the topological ordering is
566 /// preserved.
567 void ScheduleDAGTopologicalSort::Shift(BitVector& Visited, int LowerBound,
568                                        int UpperBound) {
569   std::vector<int> L;
570   int shift = 0;
571   int i;
572
573   for (i = LowerBound; i <= UpperBound; ++i) {
574     // w is node at topological index i.
575     int w = Index2Node[i];
576     if (Visited.test(w)) {
577       // Unmark.
578       Visited.reset(w);
579       L.push_back(w);
580       shift = shift + 1;
581     } else {
582       Allocate(w, i - shift);
583     }
584   }
585
586   for (unsigned j = 0; j < L.size(); ++j) {
587     Allocate(L[j], i - shift);
588     i = i + 1;
589   }
590 }
591
592
593 /// WillCreateCycle - Returns true if adding an edge to TargetSU from SU will
594 /// create a cycle. If so, it is not safe to call AddPred(TargetSU, SU).
595 bool ScheduleDAGTopologicalSort::WillCreateCycle(SUnit *TargetSU, SUnit *SU) {
596   // Is SU reachable from TargetSU via successor edges?
597   if (IsReachable(SU, TargetSU))
598     return true;
599   for (SUnit::pred_iterator
600          I = TargetSU->Preds.begin(), E = TargetSU->Preds.end(); I != E; ++I)
601     if (I->isAssignedRegDep() &&
602         IsReachable(SU, I->getSUnit()))
603       return true;
604   return false;
605 }
606
607 /// IsReachable - Checks if SU is reachable from TargetSU.
608 bool ScheduleDAGTopologicalSort::IsReachable(const SUnit *SU,
609                                              const SUnit *TargetSU) {
610   // If insertion of the edge SU->TargetSU would create a cycle
611   // then there is a path from TargetSU to SU.
612   int UpperBound, LowerBound;
613   LowerBound = Node2Index[TargetSU->NodeNum];
614   UpperBound = Node2Index[SU->NodeNum];
615   bool HasLoop = false;
616   // Is Ord(TargetSU) < Ord(SU) ?
617   if (LowerBound < UpperBound) {
618     Visited.reset();
619     // There may be a path from TargetSU to SU. Check for it.
620     DFS(TargetSU, UpperBound, HasLoop);
621   }
622   return HasLoop;
623 }
624
625 /// Allocate - assign the topological index to the node n.
626 void ScheduleDAGTopologicalSort::Allocate(int n, int index) {
627   Node2Index[n] = index;
628   Index2Node[index] = n;
629 }
630
631 ScheduleDAGTopologicalSort::
632 ScheduleDAGTopologicalSort(std::vector<SUnit> &sunits, SUnit *exitsu)
633   : SUnits(sunits), ExitSU(exitsu) {}
634
635 ScheduleHazardRecognizer::~ScheduleHazardRecognizer() {}