Completely change the way that joining with physregs is implemented. This
[oota-llvm.git] / lib / CodeGen / LiveIntervalAnalysis.cpp
1 //===-- LiveIntervalAnalysis.cpp - Live Interval Analysis -----------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file was developed by the LLVM research group and is distributed under
6 // the University of Illinois Open Source License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file implements the LiveInterval analysis pass which is used
11 // by the Linear Scan Register allocator. This pass linearizes the
12 // basic blocks of the function in DFS order and uses the
13 // LiveVariables pass to conservatively compute live intervals for
14 // each virtual and physical register.
15 //
16 //===----------------------------------------------------------------------===//
17
18 #define DEBUG_TYPE "liveintervals"
19 #include "llvm/CodeGen/LiveIntervalAnalysis.h"
20 #include "VirtRegMap.h"
21 #include "llvm/Value.h"
22 #include "llvm/Analysis/LoopInfo.h"
23 #include "llvm/CodeGen/LiveVariables.h"
24 #include "llvm/CodeGen/MachineFrameInfo.h"
25 #include "llvm/CodeGen/MachineInstr.h"
26 #include "llvm/CodeGen/Passes.h"
27 #include "llvm/CodeGen/SSARegMap.h"
28 #include "llvm/Target/MRegisterInfo.h"
29 #include "llvm/Target/TargetInstrInfo.h"
30 #include "llvm/Target/TargetMachine.h"
31 #include "llvm/Support/CommandLine.h"
32 #include "llvm/Support/Debug.h"
33 #include "llvm/ADT/Statistic.h"
34 #include "llvm/ADT/STLExtras.h"
35 #include <algorithm>
36 #include <cmath>
37 #include <iostream>
38 using namespace llvm;
39
40 namespace {
41   RegisterAnalysis<LiveIntervals> X("liveintervals", "Live Interval Analysis");
42
43   static Statistic<> numIntervals
44   ("liveintervals", "Number of original intervals");
45
46   static Statistic<> numIntervalsAfter
47   ("liveintervals", "Number of intervals after coalescing");
48
49   static Statistic<> numJoins
50   ("liveintervals", "Number of interval joins performed");
51
52   static Statistic<> numPeep
53   ("liveintervals", "Number of identity moves eliminated after coalescing");
54
55   static Statistic<> numFolded
56   ("liveintervals", "Number of loads/stores folded into instructions");
57
58   static cl::opt<bool>
59   EnableJoining("join-liveintervals",
60                 cl::desc("Join compatible live intervals"),
61                 cl::init(true));
62 }
63
64 void LiveIntervals::getAnalysisUsage(AnalysisUsage &AU) const {
65   AU.addRequired<LiveVariables>();
66   AU.addPreservedID(PHIEliminationID);
67   AU.addRequiredID(PHIEliminationID);
68   AU.addRequiredID(TwoAddressInstructionPassID);
69   AU.addRequired<LoopInfo>();
70   MachineFunctionPass::getAnalysisUsage(AU);
71 }
72
73 void LiveIntervals::releaseMemory() {
74   mi2iMap_.clear();
75   i2miMap_.clear();
76   r2iMap_.clear();
77   r2rMap_.clear();
78 }
79
80
81 static bool isZeroLengthInterval(LiveInterval *li) {
82   for (LiveInterval::Ranges::const_iterator
83          i = li->ranges.begin(), e = li->ranges.end(); i != e; ++i)
84     if (i->end - i->start > LiveIntervals::InstrSlots::NUM)
85       return false;
86   return true;
87 }
88
89
90 /// runOnMachineFunction - Register allocate the whole function
91 ///
92 bool LiveIntervals::runOnMachineFunction(MachineFunction &fn) {
93   mf_ = &fn;
94   tm_ = &fn.getTarget();
95   mri_ = tm_->getRegisterInfo();
96   tii_ = tm_->getInstrInfo();
97   lv_ = &getAnalysis<LiveVariables>();
98   allocatableRegs_ = mri_->getAllocatableSet(fn);
99   r2rMap_.grow(mf_->getSSARegMap()->getLastVirtReg());
100
101   // If this function has any live ins, insert a dummy instruction at the
102   // beginning of the function that we will pretend "defines" the values.  This
103   // is to make the interval analysis simpler by providing a number.
104   if (fn.livein_begin() != fn.livein_end()) {
105     unsigned FirstLiveIn = fn.livein_begin()->first;
106
107     // Find a reg class that contains this live in.
108     const TargetRegisterClass *RC = 0;
109     for (MRegisterInfo::regclass_iterator RCI = mri_->regclass_begin(),
110            E = mri_->regclass_end(); RCI != E; ++RCI)
111       if ((*RCI)->contains(FirstLiveIn)) {
112         RC = *RCI;
113         break;
114       }
115
116     MachineInstr *OldFirstMI = fn.begin()->begin();
117     mri_->copyRegToReg(*fn.begin(), fn.begin()->begin(),
118                        FirstLiveIn, FirstLiveIn, RC);
119     assert(OldFirstMI != fn.begin()->begin() &&
120            "copyRetToReg didn't insert anything!");
121   }
122
123   // number MachineInstrs
124   unsigned miIndex = 0;
125   for (MachineFunction::iterator mbb = mf_->begin(), mbbEnd = mf_->end();
126        mbb != mbbEnd; ++mbb)
127     for (MachineBasicBlock::iterator mi = mbb->begin(), miEnd = mbb->end();
128          mi != miEnd; ++mi) {
129       bool inserted = mi2iMap_.insert(std::make_pair(mi, miIndex)).second;
130       assert(inserted && "multiple MachineInstr -> index mappings");
131       i2miMap_.push_back(mi);
132       miIndex += InstrSlots::NUM;
133     }
134
135   // Note intervals due to live-in values.
136   if (fn.livein_begin() != fn.livein_end()) {
137     MachineBasicBlock *Entry = fn.begin();
138     for (MachineFunction::livein_iterator I = fn.livein_begin(),
139            E = fn.livein_end(); I != E; ++I) {
140       handlePhysicalRegisterDef(Entry, Entry->begin(),
141                                 getOrCreateInterval(I->first), true);
142       for (const unsigned* AS = mri_->getAliasSet(I->first); *AS; ++AS)
143         handlePhysicalRegisterDef(Entry, Entry->begin(),
144                                   getOrCreateInterval(*AS), true);
145     }
146   }
147
148   computeIntervals();
149
150   numIntervals += getNumIntervals();
151
152   DEBUG(std::cerr << "********** INTERVALS **********\n";
153         for (iterator I = begin(), E = end(); I != E; ++I) {
154           I->second.print(std::cerr, mri_);
155           std::cerr << "\n";
156         });
157
158   // join intervals if requested
159   if (EnableJoining) joinIntervals();
160
161   numIntervalsAfter += getNumIntervals();
162
163   // perform a final pass over the instructions and compute spill
164   // weights, coalesce virtual registers and remove identity moves
165   const LoopInfo& loopInfo = getAnalysis<LoopInfo>();
166
167   for (MachineFunction::iterator mbbi = mf_->begin(), mbbe = mf_->end();
168        mbbi != mbbe; ++mbbi) {
169     MachineBasicBlock* mbb = mbbi;
170     unsigned loopDepth = loopInfo.getLoopDepth(mbb->getBasicBlock());
171
172     for (MachineBasicBlock::iterator mii = mbb->begin(), mie = mbb->end();
173          mii != mie; ) {
174       // if the move will be an identity move delete it
175       unsigned srcReg, dstReg, RegRep;
176       if (tii_->isMoveInstr(*mii, srcReg, dstReg) &&
177           (RegRep = rep(srcReg)) == rep(dstReg)) {
178         // remove from def list
179         LiveInterval &interval = getOrCreateInterval(RegRep);
180         RemoveMachineInstrFromMaps(mii);
181         mii = mbbi->erase(mii);
182         ++numPeep;
183       }
184       else {
185         for (unsigned i = 0; i < mii->getNumOperands(); ++i) {
186           const MachineOperand& mop = mii->getOperand(i);
187           if (mop.isRegister() && mop.getReg() &&
188               MRegisterInfo::isVirtualRegister(mop.getReg())) {
189             // replace register with representative register
190             unsigned reg = rep(mop.getReg());
191             mii->getOperand(i).setReg(reg);
192
193             LiveInterval &RegInt = getInterval(reg);
194             RegInt.weight +=
195               (mop.isUse() + mop.isDef()) * pow(10.0F, (int)loopDepth);
196           }
197         }
198         ++mii;
199       }
200     }
201   }
202
203   for (iterator I = begin(), E = end(); I != E; ++I) {
204     LiveInterval &li = I->second;
205     if (MRegisterInfo::isVirtualRegister(li.reg))
206       // If the live interval legnth is essentially zero, i.e. in every live
207       // range the use follows def immediately, it doesn't make sense to spill
208       // it and hope it will be easier to allocate for this li.
209       if (isZeroLengthInterval(&li))
210         li.weight = float(HUGE_VAL);
211   }
212
213   DEBUG(dump());
214   return true;
215 }
216
217 /// print - Implement the dump method.
218 void LiveIntervals::print(std::ostream &O, const Module* ) const {
219   O << "********** INTERVALS **********\n";
220   for (const_iterator I = begin(), E = end(); I != E; ++I) {
221     I->second.print(std::cerr, mri_);
222     std::cerr << "\n";
223   }
224
225   O << "********** MACHINEINSTRS **********\n";
226   for (MachineFunction::iterator mbbi = mf_->begin(), mbbe = mf_->end();
227        mbbi != mbbe; ++mbbi) {
228     O << ((Value*)mbbi->getBasicBlock())->getName() << ":\n";
229     for (MachineBasicBlock::iterator mii = mbbi->begin(),
230            mie = mbbi->end(); mii != mie; ++mii) {
231       O << getInstructionIndex(mii) << '\t' << *mii;
232     }
233   }
234 }
235
236 std::vector<LiveInterval*> LiveIntervals::
237 addIntervalsForSpills(const LiveInterval &li, VirtRegMap &vrm, int slot) {
238   // since this is called after the analysis is done we don't know if
239   // LiveVariables is available
240   lv_ = getAnalysisToUpdate<LiveVariables>();
241
242   std::vector<LiveInterval*> added;
243
244   assert(li.weight != HUGE_VAL &&
245          "attempt to spill already spilled interval!");
246
247   DEBUG(std::cerr << "\t\t\t\tadding intervals for spills for interval: ";
248         li.print(std::cerr, mri_); std::cerr << '\n');
249
250   const TargetRegisterClass* rc = mf_->getSSARegMap()->getRegClass(li.reg);
251
252   for (LiveInterval::Ranges::const_iterator
253          i = li.ranges.begin(), e = li.ranges.end(); i != e; ++i) {
254     unsigned index = getBaseIndex(i->start);
255     unsigned end = getBaseIndex(i->end-1) + InstrSlots::NUM;
256     for (; index != end; index += InstrSlots::NUM) {
257       // skip deleted instructions
258       while (index != end && !getInstructionFromIndex(index))
259         index += InstrSlots::NUM;
260       if (index == end) break;
261
262       MachineInstr *MI = getInstructionFromIndex(index);
263
264       // NewRegLiveIn - This instruction might have multiple uses of the spilled
265       // register.  In this case, for the first use, keep track of the new vreg
266       // that we reload it into.  If we see a second use, reuse this vreg
267       // instead of creating live ranges for two reloads.
268       unsigned NewRegLiveIn = 0;
269
270     for_operand:
271       for (unsigned i = 0; i != MI->getNumOperands(); ++i) {
272         MachineOperand& mop = MI->getOperand(i);
273         if (mop.isRegister() && mop.getReg() == li.reg) {
274           if (NewRegLiveIn && mop.isUse()) {
275             // We already emitted a reload of this value, reuse it for
276             // subsequent operands.
277             MI->getOperand(i).setReg(NewRegLiveIn);
278             DEBUG(std::cerr << "\t\t\t\treused reload into reg" << NewRegLiveIn
279                             << " for operand #" << i << '\n');
280           } else if (MachineInstr* fmi = mri_->foldMemoryOperand(MI, i, slot)) {
281             // Attempt to fold the memory reference into the instruction.  If we
282             // can do this, we don't need to insert spill code.
283             if (lv_)
284               lv_->instructionChanged(MI, fmi);
285             MachineBasicBlock &MBB = *MI->getParent();
286             vrm.virtFolded(li.reg, MI, i, fmi);
287             mi2iMap_.erase(MI);
288             i2miMap_[index/InstrSlots::NUM] = fmi;
289             mi2iMap_[fmi] = index;
290             MI = MBB.insert(MBB.erase(MI), fmi);
291             ++numFolded;
292             // Folding the load/store can completely change the instruction in
293             // unpredictable ways, rescan it from the beginning.
294             goto for_operand;
295           } else {
296             // This is tricky. We need to add information in the interval about
297             // the spill code so we have to use our extra load/store slots.
298             //
299             // If we have a use we are going to have a load so we start the
300             // interval from the load slot onwards. Otherwise we start from the
301             // def slot.
302             unsigned start = (mop.isUse() ?
303                               getLoadIndex(index) :
304                               getDefIndex(index));
305             // If we have a def we are going to have a store right after it so
306             // we end the interval after the use of the next
307             // instruction. Otherwise we end after the use of this instruction.
308             unsigned end = 1 + (mop.isDef() ?
309                                 getStoreIndex(index) :
310                                 getUseIndex(index));
311
312             // create a new register for this spill
313             NewRegLiveIn = mf_->getSSARegMap()->createVirtualRegister(rc);
314             MI->getOperand(i).setReg(NewRegLiveIn);
315             vrm.grow();
316             vrm.assignVirt2StackSlot(NewRegLiveIn, slot);
317             LiveInterval& nI = getOrCreateInterval(NewRegLiveIn);
318             assert(nI.empty());
319
320             // the spill weight is now infinity as it
321             // cannot be spilled again
322             nI.weight = float(HUGE_VAL);
323             LiveRange LR(start, end, nI.getNextValue(~0U));
324             DEBUG(std::cerr << " +" << LR);
325             nI.addRange(LR);
326             added.push_back(&nI);
327
328             // update live variables if it is available
329             if (lv_)
330               lv_->addVirtualRegisterKilled(NewRegLiveIn, MI);
331             
332             // If this is a live in, reuse it for subsequent live-ins.  If it's
333             // a def, we can't do this.
334             if (!mop.isUse()) NewRegLiveIn = 0;
335             
336             DEBUG(std::cerr << "\t\t\t\tadded new interval: ";
337                   nI.print(std::cerr, mri_); std::cerr << '\n');
338           }
339         }
340       }
341     }
342   }
343
344   return added;
345 }
346
347 void LiveIntervals::printRegName(unsigned reg) const {
348   if (MRegisterInfo::isPhysicalRegister(reg))
349     std::cerr << mri_->getName(reg);
350   else
351     std::cerr << "%reg" << reg;
352 }
353
354 void LiveIntervals::handleVirtualRegisterDef(MachineBasicBlock *mbb,
355                                              MachineBasicBlock::iterator mi,
356                                              LiveInterval &interval) {
357   DEBUG(std::cerr << "\t\tregister: "; printRegName(interval.reg));
358   LiveVariables::VarInfo& vi = lv_->getVarInfo(interval.reg);
359
360   // Virtual registers may be defined multiple times (due to phi
361   // elimination and 2-addr elimination).  Much of what we do only has to be
362   // done once for the vreg.  We use an empty interval to detect the first
363   // time we see a vreg.
364   if (interval.empty()) {
365     // Get the Idx of the defining instructions.
366     unsigned defIndex = getDefIndex(getInstructionIndex(mi));
367
368     unsigned ValNum = interval.getNextValue(defIndex);
369     assert(ValNum == 0 && "First value in interval is not 0?");
370     ValNum = 0;  // Clue in the optimizer.
371
372     // Loop over all of the blocks that the vreg is defined in.  There are
373     // two cases we have to handle here.  The most common case is a vreg
374     // whose lifetime is contained within a basic block.  In this case there
375     // will be a single kill, in MBB, which comes after the definition.
376     if (vi.Kills.size() == 1 && vi.Kills[0]->getParent() == mbb) {
377       // FIXME: what about dead vars?
378       unsigned killIdx;
379       if (vi.Kills[0] != mi)
380         killIdx = getUseIndex(getInstructionIndex(vi.Kills[0]))+1;
381       else
382         killIdx = defIndex+1;
383
384       // If the kill happens after the definition, we have an intra-block
385       // live range.
386       if (killIdx > defIndex) {
387         assert(vi.AliveBlocks.empty() &&
388                "Shouldn't be alive across any blocks!");
389         LiveRange LR(defIndex, killIdx, ValNum);
390         interval.addRange(LR);
391         DEBUG(std::cerr << " +" << LR << "\n");
392         return;
393       }
394     }
395
396     // The other case we handle is when a virtual register lives to the end
397     // of the defining block, potentially live across some blocks, then is
398     // live into some number of blocks, but gets killed.  Start by adding a
399     // range that goes from this definition to the end of the defining block.
400     LiveRange NewLR(defIndex,
401                     getInstructionIndex(&mbb->back()) + InstrSlots::NUM,
402                     ValNum);
403     DEBUG(std::cerr << " +" << NewLR);
404     interval.addRange(NewLR);
405
406     // Iterate over all of the blocks that the variable is completely
407     // live in, adding [insrtIndex(begin), instrIndex(end)+4) to the
408     // live interval.
409     for (unsigned i = 0, e = vi.AliveBlocks.size(); i != e; ++i) {
410       if (vi.AliveBlocks[i]) {
411         MachineBasicBlock* mbb = mf_->getBlockNumbered(i);
412         if (!mbb->empty()) {
413           LiveRange LR(getInstructionIndex(&mbb->front()),
414                        getInstructionIndex(&mbb->back()) + InstrSlots::NUM,
415                        ValNum);
416           interval.addRange(LR);
417           DEBUG(std::cerr << " +" << LR);
418         }
419       }
420     }
421
422     // Finally, this virtual register is live from the start of any killing
423     // block to the 'use' slot of the killing instruction.
424     for (unsigned i = 0, e = vi.Kills.size(); i != e; ++i) {
425       MachineInstr *Kill = vi.Kills[i];
426       LiveRange LR(getInstructionIndex(Kill->getParent()->begin()),
427                    getUseIndex(getInstructionIndex(Kill))+1,
428                    ValNum);
429       interval.addRange(LR);
430       DEBUG(std::cerr << " +" << LR);
431     }
432
433   } else {
434     // If this is the second time we see a virtual register definition, it
435     // must be due to phi elimination or two addr elimination.  If this is
436     // the result of two address elimination, then the vreg is the first
437     // operand, and is a def-and-use.
438     if (mi->getOperand(0).isRegister() &&
439         mi->getOperand(0).getReg() == interval.reg &&
440         mi->getOperand(0).isDef() && mi->getOperand(0).isUse()) {
441       // If this is a two-address definition, then we have already processed
442       // the live range.  The only problem is that we didn't realize there
443       // are actually two values in the live interval.  Because of this we
444       // need to take the LiveRegion that defines this register and split it
445       // into two values.
446       unsigned DefIndex = getDefIndex(getInstructionIndex(vi.DefInst));
447       unsigned RedefIndex = getDefIndex(getInstructionIndex(mi));
448
449       // Delete the initial value, which should be short and continuous,
450       // because the 2-addr copy must be in the same MBB as the redef.
451       interval.removeRange(DefIndex, RedefIndex);
452
453       // Two-address vregs should always only be redefined once.  This means
454       // that at this point, there should be exactly one value number in it.
455       assert(interval.containsOneValue() && "Unexpected 2-addr liveint!");
456
457       // The new value number is defined by the instruction we claimed defined
458       // value #0.
459       unsigned ValNo = interval.getNextValue(DefIndex);
460       
461       // Value#1 is now defined by the 2-addr instruction.
462       interval.setInstDefiningValNum(0, RedefIndex);
463       
464       // Add the new live interval which replaces the range for the input copy.
465       LiveRange LR(DefIndex, RedefIndex, ValNo);
466       DEBUG(std::cerr << " replace range with " << LR);
467       interval.addRange(LR);
468
469       // If this redefinition is dead, we need to add a dummy unit live
470       // range covering the def slot.
471       if (lv_->RegisterDefIsDead(mi, interval.reg))
472         interval.addRange(LiveRange(RedefIndex, RedefIndex+1, 0));
473
474       DEBUG(std::cerr << "RESULT: "; interval.print(std::cerr, mri_));
475
476     } else {
477       // Otherwise, this must be because of phi elimination.  If this is the
478       // first redefinition of the vreg that we have seen, go back and change
479       // the live range in the PHI block to be a different value number.
480       if (interval.containsOneValue()) {
481         assert(vi.Kills.size() == 1 &&
482                "PHI elimination vreg should have one kill, the PHI itself!");
483
484         // Remove the old range that we now know has an incorrect number.
485         MachineInstr *Killer = vi.Kills[0];
486         unsigned Start = getInstructionIndex(Killer->getParent()->begin());
487         unsigned End = getUseIndex(getInstructionIndex(Killer))+1;
488         DEBUG(std::cerr << "Removing [" << Start << "," << End << "] from: ";
489               interval.print(std::cerr, mri_); std::cerr << "\n");
490         interval.removeRange(Start, End);
491         DEBUG(std::cerr << "RESULT: "; interval.print(std::cerr, mri_));
492
493         // Replace the interval with one of a NEW value number.  Note that this
494         // value number isn't actually defined by an instruction, weird huh? :)
495         LiveRange LR(Start, End, interval.getNextValue(~0U));
496         DEBUG(std::cerr << " replace range with " << LR);
497         interval.addRange(LR);
498         DEBUG(std::cerr << "RESULT: "; interval.print(std::cerr, mri_));
499       }
500
501       // In the case of PHI elimination, each variable definition is only
502       // live until the end of the block.  We've already taken care of the
503       // rest of the live range.
504       unsigned defIndex = getDefIndex(getInstructionIndex(mi));
505       LiveRange LR(defIndex,
506                    getInstructionIndex(&mbb->back()) + InstrSlots::NUM,
507                    interval.getNextValue(defIndex));
508       interval.addRange(LR);
509       DEBUG(std::cerr << " +" << LR);
510     }
511   }
512
513   DEBUG(std::cerr << '\n');
514 }
515
516 void LiveIntervals::handlePhysicalRegisterDef(MachineBasicBlock *MBB,
517                                               MachineBasicBlock::iterator mi,
518                                               LiveInterval& interval,
519                                               bool isLiveIn) {
520   // A physical register cannot be live across basic block, so its
521   // lifetime must end somewhere in its defining basic block.
522   DEBUG(std::cerr << "\t\tregister: "; printRegName(interval.reg));
523   typedef LiveVariables::killed_iterator KillIter;
524
525   unsigned baseIndex = getInstructionIndex(mi);
526   unsigned start = getDefIndex(baseIndex);
527   unsigned end = start;
528
529   // If it is not used after definition, it is considered dead at
530   // the instruction defining it. Hence its interval is:
531   // [defSlot(def), defSlot(def)+1)
532   if (lv_->RegisterDefIsDead(mi, interval.reg)) {
533     DEBUG(std::cerr << " dead");
534     end = getDefIndex(start) + 1;
535     goto exit;
536   }
537
538   // If it is not dead on definition, it must be killed by a
539   // subsequent instruction. Hence its interval is:
540   // [defSlot(def), useSlot(kill)+1)
541   while (++mi != MBB->end()) {
542     baseIndex += InstrSlots::NUM;
543     if (lv_->KillsRegister(mi, interval.reg)) {
544       DEBUG(std::cerr << " killed");
545       end = getUseIndex(baseIndex) + 1;
546       goto exit;
547     }
548   }
549   
550   // The only case we should have a dead physreg here without a killing or
551   // instruction where we know it's dead is if it is live-in to the function
552   // and never used.
553   assert(isLiveIn && "physreg was not killed in defining block!");
554   end = getDefIndex(start) + 1;  // It's dead.
555
556 exit:
557   assert(start < end && "did not find end of interval?");
558
559   LiveRange LR(start, end, interval.getNextValue(isLiveIn ? ~0U : start));
560   interval.addRange(LR);
561   DEBUG(std::cerr << " +" << LR << '\n');
562 }
563
564 void LiveIntervals::handleRegisterDef(MachineBasicBlock *MBB,
565                                       MachineBasicBlock::iterator MI,
566                                       unsigned reg) {
567   if (MRegisterInfo::isVirtualRegister(reg))
568     handleVirtualRegisterDef(MBB, MI, getOrCreateInterval(reg));
569   else if (allocatableRegs_[reg]) {
570     handlePhysicalRegisterDef(MBB, MI, getOrCreateInterval(reg));
571     for (const unsigned* AS = mri_->getAliasSet(reg); *AS; ++AS)
572       handlePhysicalRegisterDef(MBB, MI, getOrCreateInterval(*AS));
573   }
574 }
575
576 /// computeIntervals - computes the live intervals for virtual
577 /// registers. for some ordering of the machine instructions [1,N] a
578 /// live interval is an interval [i, j) where 1 <= i <= j < N for
579 /// which a variable is live
580 void LiveIntervals::computeIntervals() {
581   DEBUG(std::cerr << "********** COMPUTING LIVE INTERVALS **********\n");
582   DEBUG(std::cerr << "********** Function: "
583         << ((Value*)mf_->getFunction())->getName() << '\n');
584   bool IgnoreFirstInstr = mf_->livein_begin() != mf_->livein_end();
585
586   for (MachineFunction::iterator I = mf_->begin(), E = mf_->end();
587        I != E; ++I) {
588     MachineBasicBlock* mbb = I;
589     DEBUG(std::cerr << ((Value*)mbb->getBasicBlock())->getName() << ":\n");
590
591     MachineBasicBlock::iterator mi = mbb->begin(), miEnd = mbb->end();
592     if (IgnoreFirstInstr) { ++mi; IgnoreFirstInstr = false; }
593     for (; mi != miEnd; ++mi) {
594       const TargetInstrDescriptor& tid =
595         tm_->getInstrInfo()->get(mi->getOpcode());
596       DEBUG(std::cerr << getInstructionIndex(mi) << "\t" << *mi);
597
598       // handle implicit defs
599       if (tid.ImplicitDefs) {
600         for (const unsigned* id = tid.ImplicitDefs; *id; ++id)
601           handleRegisterDef(mbb, mi, *id);
602       }
603
604       // handle explicit defs
605       for (int i = mi->getNumOperands() - 1; i >= 0; --i) {
606         MachineOperand& mop = mi->getOperand(i);
607         // handle register defs - build intervals
608         if (mop.isRegister() && mop.getReg() && mop.isDef())
609           handleRegisterDef(mbb, mi, mop.getReg());
610       }
611     }
612   }
613 }
614
615 /// AdjustCopiesBackFrom - We found a non-trivially-coallescable copy with IntA
616 /// being the source and IntB being the dest, thus this defines a value number
617 /// in IntB.  If the source value number (in IntA) is defined by a copy from B,
618 /// see if we can merge these two pieces of B into a single value number,
619 /// eliminating a copy.  For example:
620 ///
621 ///  A3 = B0
622 ///    ...
623 ///  B1 = A3      <- this copy
624 ///
625 /// In this case, B0 can be extended to where the B1 copy lives, allowing the B1
626 /// value number to be replaced with B0 (which simplifies the B liveinterval).
627 ///
628 /// This returns true if an interval was modified.
629 ///
630 bool LiveIntervals::AdjustCopiesBackFrom(LiveInterval &IntA, LiveInterval &IntB,
631                                          MachineInstr *CopyMI,
632                                          unsigned CopyIdx) {
633   // BValNo is a value number in B that is defined by a copy from A.  'B3' in
634   // the example above.
635   LiveInterval::iterator BLR = IntB.FindLiveRangeContaining(CopyIdx);
636   unsigned BValNo = BLR->ValId;
637   
638   // Get the location that B is defined at.  Two options: either this value has
639   // an unknown definition point or it is defined at CopyIdx.  If unknown, we 
640   // can't process it.
641   unsigned BValNoDefIdx = IntB.getInstForValNum(BValNo);
642   if (BValNoDefIdx == ~0U) return false;
643   assert(BValNoDefIdx == CopyIdx &&
644          "Copy doesn't define the value?");
645   
646   // AValNo is the value number in A that defines the copy, A0 in the example.
647   LiveInterval::iterator AValLR = IntA.FindLiveRangeContaining(CopyIdx-1);
648   unsigned AValNo = AValLR->ValId;
649   
650   // If AValNo is defined as a copy from IntB, we can potentially process this.
651   
652   // Get the instruction that defines this value number.
653   unsigned AValNoInstIdx = IntA.getInstForValNum(AValNo);
654   
655   // If it's unknown, ignore it.
656   if (AValNoInstIdx == ~0U || AValNoInstIdx == ~1U) return false;
657   // Otherwise, get the instruction for it.
658   MachineInstr *AValNoInstMI = getInstructionFromIndex(AValNoInstIdx);
659     
660   // If the value number is not defined by a copy instruction, ignore it.
661   unsigned SrcReg, DstReg;
662   if (!tii_->isMoveInstr(*AValNoInstMI, SrcReg, DstReg))
663     return false;
664     
665   // If the source register comes from an interval other than IntB, we can't
666   // handle this.
667   assert(rep(DstReg) == IntA.reg && "Not defining a reg in IntA?");
668   if (rep(SrcReg) != IntB.reg) return false;
669     
670   // Get the LiveRange in IntB that this value number starts with.
671   LiveInterval::iterator ValLR = IntB.FindLiveRangeContaining(AValNoInstIdx-1);
672   
673   // Make sure that the end of the live range is inside the same block as
674   // CopyMI.
675   MachineInstr *ValLREndInst = getInstructionFromIndex(ValLR->end-1);
676   if (!ValLREndInst || 
677       ValLREndInst->getParent() != CopyMI->getParent()) return false;
678
679   // Okay, we now know that ValLR ends in the same block that the CopyMI
680   // live-range starts.  If there are no intervening live ranges between them in
681   // IntB, we can merge them.
682   if (ValLR+1 != BLR) return false;
683   
684   DEBUG(std::cerr << "\nExtending: "; IntB.print(std::cerr, mri_));
685     
686   // Okay, we can merge them.  We need to insert a new liverange:
687   // [ValLR.end, BLR.begin) of either value number, then we merge the
688   // two value numbers.
689   unsigned FillerStart = ValLR->end, FillerEnd = BLR->start;
690   IntB.addRange(LiveRange(FillerStart, FillerEnd, BValNo));
691
692   // If the IntB live range is assigned to a physical register, and if that
693   // physreg has aliases, 
694   if (MRegisterInfo::isPhysicalRegister(IntB.reg)) {
695     for (const unsigned *AS = mri_->getAliasSet(IntB.reg); *AS; ++AS) {
696       LiveInterval &AliasLI = getInterval(*AS);
697       AliasLI.addRange(LiveRange(FillerStart, FillerEnd,
698                                  AliasLI.getNextValue(~0U)));
699     }
700   }
701
702   // Okay, merge "B1" into the same value number as "B0".
703   if (BValNo != ValLR->ValId)
704     IntB.MergeValueNumberInto(BValNo, ValLR->ValId);
705   DEBUG(std::cerr << "   result = "; IntB.print(std::cerr, mri_);
706         std::cerr << "\n");
707   
708   // Finally, delete the copy instruction.
709   RemoveMachineInstrFromMaps(CopyMI);
710   CopyMI->eraseFromParent();
711   ++numPeep;
712   return true;
713 }
714
715
716 /// JoinCopy - Attempt to join intervals corresponding to SrcReg/DstReg,
717 /// which are the src/dst of the copy instruction CopyMI.  This returns true
718 /// if the copy was successfully coallesced away, or if it is never possible
719 /// to coallesce these this copy, due to register constraints.  It returns
720 /// false if it is not currently possible to coallesce this interval, but
721 /// it may be possible if other things get coallesced.
722 bool LiveIntervals::JoinCopy(MachineInstr *CopyMI,
723                              unsigned SrcReg, unsigned DstReg) {
724   
725   
726   DEBUG(std::cerr << getInstructionIndex(CopyMI) << '\t' << *CopyMI);
727   
728   // Get representative registers.
729   SrcReg = rep(SrcReg);
730   DstReg = rep(DstReg);
731   
732   // If they are already joined we continue.
733   if (SrcReg == DstReg) {
734     DEBUG(std::cerr << "\tCopy already coallesced.\n");
735     return true;  // Not coallescable.
736   }
737   
738   // If they are both physical registers, we cannot join them.
739   if (MRegisterInfo::isPhysicalRegister(SrcReg) &&
740       MRegisterInfo::isPhysicalRegister(DstReg)) {
741     DEBUG(std::cerr << "\tCan not coallesce physregs.\n");
742     return true;  // Not coallescable.
743   }
744   
745   // We only join virtual registers with allocatable physical registers.
746   if (MRegisterInfo::isPhysicalRegister(SrcReg) && !allocatableRegs_[SrcReg]){
747     DEBUG(std::cerr << "\tSrc reg is unallocatable physreg.\n");
748     return true;  // Not coallescable.
749   }
750   if (MRegisterInfo::isPhysicalRegister(DstReg) && !allocatableRegs_[DstReg]){
751     DEBUG(std::cerr << "\tDst reg is unallocatable physreg.\n");
752     return true;  // Not coallescable.
753   }
754   
755   // If they are not of the same register class, we cannot join them.
756   if (differingRegisterClasses(SrcReg, DstReg)) {
757     DEBUG(std::cerr << "\tSrc/Dest are different register classes.\n");
758     return true;  // Not coallescable.
759   }
760   
761   LiveInterval &SrcInt = getInterval(SrcReg);
762   LiveInterval &DestInt = getInterval(DstReg);
763   assert(SrcInt.reg == SrcReg && DestInt.reg == DstReg &&
764          "Register mapping is horribly broken!");
765   
766   DEBUG(std::cerr << "\t\tInspecting "; SrcInt.print(std::cerr, mri_);
767         std::cerr << " and "; DestInt.print(std::cerr, mri_);
768         std::cerr << ": ");
769     
770   // If two intervals contain a single value and are joined by a copy, it
771   // does not matter if the intervals overlap, they can always be joined.
772
773   bool Joinable = SrcInt.containsOneValue() && DestInt.containsOneValue();
774   
775   unsigned MIDefIdx = getDefIndex(getInstructionIndex(CopyMI));
776   
777   // If the intervals think that this is joinable, do so now.
778   if (!Joinable && DestInt.joinable(SrcInt, MIDefIdx))
779     Joinable = true;
780   
781   // If DestInt is actually a copy from SrcInt (which we know) that is used
782   // to define another value of SrcInt, we can change the other range of
783   // SrcInt to be the value of the range that defines DestInt, simplying the
784   // interval an promoting coallescing.
785   if (!Joinable && AdjustCopiesBackFrom(SrcInt, DestInt, CopyMI, MIDefIdx))
786     return true;
787   
788   if (!Joinable) {
789     DEBUG(std::cerr << "Interference!\n");
790     return false;
791   }
792
793   // If we're about to merge live ranges into a physical register live range,
794   // we have to update any aliased register's live ranges to indicate that they
795   // have clobbered values for this range.
796   if (MRegisterInfo::isPhysicalRegister(SrcReg) ||
797       MRegisterInfo::isPhysicalRegister(DstReg)) {
798     // Figure out which register is the physical reg and which one is the
799     // virtreg.
800     LiveInterval *PhysRegLI = &SrcInt, *VirtRegLI = &DestInt;
801     if (MRegisterInfo::isPhysicalRegister(DstReg))
802       std::swap(PhysRegLI, VirtRegLI);
803     
804     for (const unsigned *AS = mri_->getAliasSet(PhysRegLI->reg); *AS; ++AS)
805       getInterval(*AS).MergeInClobberRanges(*VirtRegLI);
806   }
807
808   DestInt.join(SrcInt, MIDefIdx);
809   // FIXME: If SrcInt/DestInt are physregs, we must insert the new liveranges
810   // into all aliasing registers as clobbers.
811                                
812   DEBUG(std::cerr << "\n\t\tJoined.  Result = "; DestInt.print(std::cerr, mri_);
813         std::cerr << "\n");
814     
815   if (!MRegisterInfo::isPhysicalRegister(SrcReg)) {
816     r2iMap_.erase(SrcReg);
817     r2rMap_[SrcReg] = DstReg;
818   } else {
819     // Otherwise merge the data structures the other way so we don't lose
820     // the physreg information.
821     r2rMap_[DstReg] = SrcReg;
822     DestInt.reg = SrcReg;
823     SrcInt.swap(DestInt);
824     r2iMap_.erase(DstReg);
825   }
826   ++numJoins;
827   return true;
828 }
829
830
831
832 namespace {
833   // DepthMBBCompare - Comparison predicate that sort first based on the loop
834   // depth of the basic block (the unsigned), and then on the MBB number.
835   struct DepthMBBCompare {
836     typedef std::pair<unsigned, MachineBasicBlock*> DepthMBBPair;
837     bool operator()(const DepthMBBPair &LHS, const DepthMBBPair &RHS) const {
838       if (LHS.first > RHS.first) return true;   // Deeper loops first
839       return LHS.first == RHS.first &&
840         LHS.second->getNumber() < RHS.second->getNumber();
841     }
842   };
843 }
844
845
846 void LiveIntervals::CopyCoallesceInMBB(MachineBasicBlock *MBB,
847                                        std::vector<CopyRec> &TryAgain) {
848   DEBUG(std::cerr << ((Value*)MBB->getBasicBlock())->getName() << ":\n");
849   
850   for (MachineBasicBlock::iterator MII = MBB->begin(), E = MBB->end();
851        MII != E;) {
852     MachineInstr *Inst = MII++;
853     
854     // If this isn't a copy, we can't join intervals.
855     unsigned SrcReg, DstReg;
856     if (!tii_->isMoveInstr(*Inst, SrcReg, DstReg)) continue;
857     
858     if (!JoinCopy(Inst, SrcReg, DstReg))
859       TryAgain.push_back(getCopyRec(Inst, SrcReg, DstReg));
860   }
861 }
862
863
864 void LiveIntervals::joinIntervals() {
865   DEBUG(std::cerr << "********** JOINING INTERVALS ***********\n");
866
867   std::vector<CopyRec> TryAgainList;
868   
869   const LoopInfo &LI = getAnalysis<LoopInfo>();
870   if (LI.begin() == LI.end()) {
871     // If there are no loops in the function, join intervals in function order.
872     for (MachineFunction::iterator I = mf_->begin(), E = mf_->end();
873          I != E; ++I)
874       CopyCoallesceInMBB(I, TryAgainList);
875   } else {
876     // Otherwise, join intervals in inner loops before other intervals.
877     // Unfortunately we can't just iterate over loop hierarchy here because
878     // there may be more MBB's than BB's.  Collect MBB's for sorting.
879     std::vector<std::pair<unsigned, MachineBasicBlock*> > MBBs;
880     for (MachineFunction::iterator I = mf_->begin(), E = mf_->end();
881          I != E; ++I)
882       MBBs.push_back(std::make_pair(LI.getLoopDepth(I->getBasicBlock()), I));
883
884     // Sort by loop depth.
885     std::sort(MBBs.begin(), MBBs.end(), DepthMBBCompare());
886
887     // Finally, join intervals in loop nest order.
888     for (unsigned i = 0, e = MBBs.size(); i != e; ++i)
889       CopyCoallesceInMBB(MBBs[i].second, TryAgainList);
890   }
891
892   // Joining intervals can allow other intervals to be joined.  Iteratively join
893   // until we make no progress.
894   bool ProgressMade = true;
895   while (ProgressMade) {
896     ProgressMade = false;
897     
898     for (unsigned i = 0, e = TryAgainList.size(); i != e; ++i) {
899       CopyRec &TheCopy = TryAgainList[i];
900       if (TheCopy.MI &&
901           JoinCopy(TheCopy.MI, TheCopy.SrcReg, TheCopy.DstReg)) {
902         TheCopy.MI = 0;   // Mark this one as done.
903         ProgressMade = true;
904       }
905     }
906   }
907   
908   DEBUG(std::cerr << "*** Register mapping ***\n");
909   DEBUG(for (int i = 0, e = r2rMap_.size(); i != e; ++i)
910           if (r2rMap_[i]) {
911             std::cerr << "  reg " << i << " -> ";
912             printRegName(r2rMap_[i]);
913             std::cerr << "\n";
914           });
915 }
916
917 /// Return true if the two specified registers belong to different register
918 /// classes.  The registers may be either phys or virt regs.
919 bool LiveIntervals::differingRegisterClasses(unsigned RegA,
920                                              unsigned RegB) const {
921
922   // Get the register classes for the first reg.
923   if (MRegisterInfo::isPhysicalRegister(RegA)) {
924     assert(MRegisterInfo::isVirtualRegister(RegB) &&
925            "Shouldn't consider two physregs!");
926     return !mf_->getSSARegMap()->getRegClass(RegB)->contains(RegA);
927   }
928
929   // Compare against the regclass for the second reg.
930   const TargetRegisterClass *RegClass = mf_->getSSARegMap()->getRegClass(RegA);
931   if (MRegisterInfo::isVirtualRegister(RegB))
932     return RegClass != mf_->getSSARegMap()->getRegClass(RegB);
933   else
934     return !RegClass->contains(RegB);
935 }
936
937 LiveInterval LiveIntervals::createInterval(unsigned reg) {
938   float Weight = MRegisterInfo::isPhysicalRegister(reg) ?
939                        (float)HUGE_VAL :0.0F;
940   return LiveInterval(reg, Weight);
941 }