Remove attribution from file headers, per discussion on llvmdev.
[oota-llvm.git] / lib / Transforms / Scalar / DeadStoreElimination.cpp
1 //===- DeadStoreElimination.cpp - Fast Dead Store Elimination -------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file implements a trivial dead store elimination that only considers
11 // basic-block local redundant stores.
12 //
13 // FIXME: This should eventually be extended to be a post-dominator tree
14 // traversal.  Doing so would be pretty trivial.
15 //
16 //===----------------------------------------------------------------------===//
17
18 #define DEBUG_TYPE "dse"
19 #include "llvm/Transforms/Scalar.h"
20 #include "llvm/Constants.h"
21 #include "llvm/Function.h"
22 #include "llvm/Instructions.h"
23 #include "llvm/Pass.h"
24 #include "llvm/ADT/SetVector.h"
25 #include "llvm/ADT/SmallPtrSet.h"
26 #include "llvm/ADT/Statistic.h"
27 #include "llvm/Analysis/AliasAnalysis.h"
28 #include "llvm/Analysis/MemoryDependenceAnalysis.h"
29 #include "llvm/Target/TargetData.h"
30 #include "llvm/Transforms/Utils/Local.h"
31 #include "llvm/Support/Compiler.h"
32 using namespace llvm;
33
34 STATISTIC(NumFastStores, "Number of stores deleted");
35 STATISTIC(NumFastOther , "Number of other instrs removed");
36
37 namespace {
38   struct VISIBILITY_HIDDEN DSE : public FunctionPass {
39     static char ID; // Pass identification, replacement for typeid
40     DSE() : FunctionPass((intptr_t)&ID) {}
41
42     virtual bool runOnFunction(Function &F) {
43       bool Changed = false;
44       for (Function::iterator I = F.begin(), E = F.end(); I != E; ++I)
45         Changed |= runOnBasicBlock(*I);
46       return Changed;
47     }
48
49     bool runOnBasicBlock(BasicBlock &BB);
50     bool handleFreeWithNonTrivialDependency(FreeInst* F,
51                                             Instruction* dependency,
52                                         SetVector<Instruction*>& possiblyDead);
53     bool handleEndBlock(BasicBlock& BB, SetVector<Instruction*>& possiblyDead);
54     bool RemoveUndeadPointers(Value* pointer,
55                               BasicBlock::iterator& BBI,
56                               SmallPtrSet<AllocaInst*, 64>& deadPointers, 
57                               SetVector<Instruction*>& possiblyDead);
58     void DeleteDeadInstructionChains(Instruction *I,
59                                      SetVector<Instruction*> &DeadInsts);
60     
61     /// Find the base pointer that a pointer came from
62     /// Because this is used to find pointers that originate
63     /// from allocas, it is safe to ignore GEP indices, since
64     /// either the store will be in the alloca, and thus dead,
65     /// or beyond the end of the alloca, and thus undefined.
66     void TranslatePointerBitCasts(Value*& v, bool zeroGepsOnly = false) {
67       assert(isa<PointerType>(v->getType()) &&
68              "Translating a non-pointer type?");
69       while (true) {
70         if (BitCastInst* C = dyn_cast<BitCastInst>(v))
71           v = C->getOperand(0);
72         else if (GetElementPtrInst* G = dyn_cast<GetElementPtrInst>(v))
73           if (!zeroGepsOnly || G->hasAllZeroIndices()) {
74             v = G->getOperand(0);
75           } else {
76             break;
77           }
78         else
79           break;
80       }
81     }
82
83     // getAnalysisUsage - We require post dominance frontiers (aka Control
84     // Dependence Graph)
85     virtual void getAnalysisUsage(AnalysisUsage &AU) const {
86       AU.setPreservesCFG();
87       AU.addRequired<TargetData>();
88       AU.addRequired<AliasAnalysis>();
89       AU.addRequired<MemoryDependenceAnalysis>();
90       AU.addPreserved<AliasAnalysis>();
91       AU.addPreserved<MemoryDependenceAnalysis>();
92     }
93   };
94   char DSE::ID = 0;
95   RegisterPass<DSE> X("dse", "Dead Store Elimination");
96 }
97
98 FunctionPass *llvm::createDeadStoreEliminationPass() { return new DSE(); }
99
100 bool DSE::runOnBasicBlock(BasicBlock &BB) {
101   MemoryDependenceAnalysis& MD = getAnalysis<MemoryDependenceAnalysis>();
102   TargetData &TD = getAnalysis<TargetData>();  
103
104   // Record the last-seen store to this pointer
105   DenseMap<Value*, StoreInst*> lastStore;
106   // Record instructions possibly made dead by deleting a store
107   SetVector<Instruction*> possiblyDead;
108   
109   bool MadeChange = false;
110   
111   // Do a top-down walk on the BB
112   for (BasicBlock::iterator BBI = BB.begin(), BBE = BB.end();
113        BBI != BBE; ++BBI) {
114     // If we find a store or a free...
115     if (!isa<StoreInst>(BBI) && !isa<FreeInst>(BBI))
116       continue;
117       
118     Value* pointer = 0;
119     if (StoreInst* S = dyn_cast<StoreInst>(BBI)) {
120       if (!S->isVolatile())
121         pointer = S->getPointerOperand();
122       else
123         continue;
124     } else
125       pointer = cast<FreeInst>(BBI)->getPointerOperand();
126       
127     TranslatePointerBitCasts(pointer, true);
128     StoreInst*& last = lastStore[pointer];
129     bool deletedStore = false;
130       
131     // ... to a pointer that has been stored to before...
132     if (last) {
133       Instruction* dep = MD.getDependency(BBI);
134         
135       // ... and no other memory dependencies are between them....
136       while (dep != MemoryDependenceAnalysis::None &&
137              dep != MemoryDependenceAnalysis::NonLocal &&
138              isa<StoreInst>(dep)) {
139         if (dep != last ||
140              TD.getTypeStoreSize(last->getOperand(0)->getType()) >
141              TD.getTypeStoreSize(BBI->getOperand(0)->getType())) {
142           dep = MD.getDependency(BBI, dep);
143           continue;
144         }
145         
146         // Remove it!
147         MD.removeInstruction(last);
148           
149         // DCE instructions only used to calculate that store
150         if (Instruction* D = dyn_cast<Instruction>(last->getOperand(0)))
151           possiblyDead.insert(D);
152         if (Instruction* D = dyn_cast<Instruction>(last->getOperand(1)))
153           possiblyDead.insert(D);
154           
155         last->eraseFromParent();
156         NumFastStores++;
157         deletedStore = true;
158         MadeChange = true;
159           
160         break;
161       }
162     }
163     
164     // Handle frees whose dependencies are non-trivial.
165     if (FreeInst* F = dyn_cast<FreeInst>(BBI)) {
166       if (!deletedStore)
167         MadeChange |= handleFreeWithNonTrivialDependency(F,
168                                                          MD.getDependency(F),
169                                                          possiblyDead);
170       // No known stores after the free
171       last = 0;
172     } else {
173       // Update our most-recent-store map.
174       last = cast<StoreInst>(BBI);
175     }
176   }
177   
178   // If this block ends in a return, unwind, unreachable, and eventually
179   // tailcall, then all allocas are dead at its end.
180   if (BB.getTerminator()->getNumSuccessors() == 0)
181     MadeChange |= handleEndBlock(BB, possiblyDead);
182   
183   // Do a trivial DCE
184   while (!possiblyDead.empty()) {
185     Instruction *I = possiblyDead.back();
186     possiblyDead.pop_back();
187     DeleteDeadInstructionChains(I, possiblyDead);
188   }
189   
190   return MadeChange;
191 }
192
193 /// handleFreeWithNonTrivialDependency - Handle frees of entire structures whose
194 /// dependency is a store to a field of that structure
195 bool DSE::handleFreeWithNonTrivialDependency(FreeInst* F, Instruction* dep,
196                                        SetVector<Instruction*>& possiblyDead) {
197   TargetData &TD = getAnalysis<TargetData>();
198   AliasAnalysis &AA = getAnalysis<AliasAnalysis>();
199   MemoryDependenceAnalysis& MD = getAnalysis<MemoryDependenceAnalysis>();
200   
201   if (dep == MemoryDependenceAnalysis::None ||
202       dep == MemoryDependenceAnalysis::NonLocal)
203     return false;
204   
205   StoreInst* dependency = dyn_cast<StoreInst>(dep);
206   if (!dependency)
207     return false;
208   else if (dependency->isVolatile())
209     return false;
210   
211   Value* depPointer = dependency->getPointerOperand();
212   const Type* depType = dependency->getOperand(0)->getType();
213   unsigned depPointerSize = TD.getTypeStoreSize(depType);
214   
215   // Check for aliasing
216   AliasAnalysis::AliasResult A = AA.alias(F->getPointerOperand(), ~0UL,
217                                           depPointer, depPointerSize);
218     
219   if (A == AliasAnalysis::MustAlias) {
220     // Remove it!
221     MD.removeInstruction(dependency);
222
223     // DCE instructions only used to calculate that store
224     if (Instruction* D = dyn_cast<Instruction>(dependency->getOperand(0)))
225       possiblyDead.insert(D);
226     if (Instruction* D = dyn_cast<Instruction>(dependency->getOperand(1)))
227       possiblyDead.insert(D);
228
229     dependency->eraseFromParent();
230     NumFastStores++;
231     return true;
232   }
233   
234   return false;
235 }
236
237 /// handleEndBlock - Remove dead stores to stack-allocated locations in the
238 /// function end block.  Ex:
239 /// %A = alloca i32
240 /// ...
241 /// store i32 1, i32* %A
242 /// ret void
243 bool DSE::handleEndBlock(BasicBlock& BB,
244                          SetVector<Instruction*>& possiblyDead) {
245   TargetData &TD = getAnalysis<TargetData>();
246   AliasAnalysis &AA = getAnalysis<AliasAnalysis>();
247   MemoryDependenceAnalysis& MD = getAnalysis<MemoryDependenceAnalysis>();
248   
249   bool MadeChange = false;
250   
251   // Pointers alloca'd in this function are dead in the end block
252   SmallPtrSet<AllocaInst*, 64> deadPointers;
253   
254   // Find all of the alloca'd pointers in the entry block
255   BasicBlock *Entry = BB.getParent()->begin();
256   for (BasicBlock::iterator I = Entry->begin(), E = Entry->end(); I != E; ++I)
257     if (AllocaInst *AI = dyn_cast<AllocaInst>(I))
258       deadPointers.insert(AI);
259   
260   // Scan the basic block backwards
261   for (BasicBlock::iterator BBI = BB.end(); BBI != BB.begin(); ){
262     --BBI;
263     
264     if (deadPointers.empty())
265       break;
266     
267     // If we find a store whose pointer is dead...
268     if (StoreInst* S = dyn_cast<StoreInst>(BBI)) {
269       if (!S->isVolatile()) {
270         Value* pointerOperand = S->getPointerOperand();
271         // See through pointer-to-pointer bitcasts
272         TranslatePointerBitCasts(pointerOperand);
273       
274         if (isa<AllocaInst>(pointerOperand) && 
275             deadPointers.count(cast<AllocaInst>(pointerOperand))) {
276           // Remove it!
277           MD.removeInstruction(S);
278         
279           // DCE instructions only used to calculate that store
280           if (Instruction* D = dyn_cast<Instruction>(S->getOperand(0)))
281             possiblyDead.insert(D);
282           if (Instruction* D = dyn_cast<Instruction>(S->getOperand(1)))
283             possiblyDead.insert(D);
284         
285           BBI++;
286           S->eraseFromParent();
287           NumFastStores++;
288           MadeChange = true;
289         }
290       }
291       
292       continue;
293     }
294     
295     Value* killPointer = 0;
296     
297     // If we encounter a use of the pointer, it is no longer considered dead
298     if (LoadInst* L = dyn_cast<LoadInst>(BBI)) {
299       killPointer = L->getPointerOperand();
300     } else if (VAArgInst* V = dyn_cast<VAArgInst>(BBI)) {
301       killPointer = V->getOperand(0);
302     } else if (AllocaInst* A = dyn_cast<AllocaInst>(BBI)) {
303       deadPointers.erase(A);
304       continue;
305     } else if (CallSite::get(BBI).getInstruction() != 0) {
306       // If this call does not access memory, it can't
307       // be undeadifying any of our pointers.
308       CallSite CS = CallSite::get(BBI);
309       if (AA.doesNotAccessMemory(CS))
310         continue;
311       
312       unsigned modRef = 0;
313       unsigned other = 0;
314       
315       // Remove any pointers made undead by the call from the dead set
316       std::vector<Instruction*> dead;
317       for (SmallPtrSet<AllocaInst*, 64>::iterator I = deadPointers.begin(),
318            E = deadPointers.end(); I != E; ++I) {
319         // HACK: if we detect that our AA is imprecise, it's not
320         // worth it to scan the rest of the deadPointers set.  Just
321         // assume that the AA will return ModRef for everything, and
322         // go ahead and bail.
323         if (modRef >= 16 && other == 0) {
324           deadPointers.clear();
325           return MadeChange;
326         }
327         
328         // Get size information for the alloca
329         unsigned pointerSize = ~0UL;
330         if (ConstantInt* C = dyn_cast<ConstantInt>((*I)->getArraySize()))
331           pointerSize = C->getZExtValue() * \
332                         TD.getABITypeSize((*I)->getAllocatedType());
333         
334         // See if the call site touches it
335         AliasAnalysis::ModRefResult A = AA.getModRefInfo(CS, *I, pointerSize);
336         
337         if (A == AliasAnalysis::ModRef)
338           modRef++;
339         else
340           other++;
341         
342         if (A == AliasAnalysis::ModRef || A == AliasAnalysis::Ref)
343           dead.push_back(*I);
344       }
345
346       for (std::vector<Instruction*>::iterator I = dead.begin(), E = dead.end();
347            I != E; ++I)
348         if (AllocaInst *AI = dyn_cast<AllocaInst>(*I))
349           deadPointers.erase(AI);
350       
351       continue;
352     }
353     
354     if (!killPointer)
355       continue;
356     
357     TranslatePointerBitCasts(killPointer);
358     
359     // Deal with undead pointers
360     MadeChange |= RemoveUndeadPointers(killPointer, BBI,
361                                        deadPointers, possiblyDead);
362   }
363   
364   return MadeChange;
365 }
366
367 /// RemoveUndeadPointers - check for uses of a pointer that make it
368 /// undead when scanning for dead stores to alloca's.
369 bool DSE::RemoveUndeadPointers(Value* killPointer,
370                                 BasicBlock::iterator& BBI,
371                                 SmallPtrSet<AllocaInst*, 64>& deadPointers, 
372                                 SetVector<Instruction*>& possiblyDead) {
373   TargetData &TD = getAnalysis<TargetData>();
374   AliasAnalysis &AA = getAnalysis<AliasAnalysis>();
375   MemoryDependenceAnalysis& MD = getAnalysis<MemoryDependenceAnalysis>();
376                                   
377   // If the kill pointer can be easily reduced to an alloca,
378   // don't bother doing extraneous AA queries
379   if (AllocaInst* A = dyn_cast<AllocaInst>(killPointer)) {
380     if (deadPointers.count(A))
381       deadPointers.erase(A);
382     return false;
383   } else if (isa<GlobalValue>(killPointer)) {
384     // A global can't be in the dead pointer set
385     return false;
386   }
387   
388   bool MadeChange = false;
389   
390   std::vector<Instruction*> undead;
391     
392   for (SmallPtrSet<AllocaInst*, 64>::iterator I = deadPointers.begin(),
393       E = deadPointers.end(); I != E; ++I) {
394     // Get size information for the alloca
395     unsigned pointerSize = ~0UL;
396     if (ConstantInt* C = dyn_cast<ConstantInt>((*I)->getArraySize()))
397       pointerSize = C->getZExtValue() * \
398                     TD.getABITypeSize((*I)->getAllocatedType());
399       
400     // See if this pointer could alias it
401     AliasAnalysis::AliasResult A = AA.alias(*I, pointerSize,
402                                             killPointer, ~0UL);
403
404     // If it must-alias and a store, we can delete it
405     if (isa<StoreInst>(BBI) && A == AliasAnalysis::MustAlias) {
406       StoreInst* S = cast<StoreInst>(BBI);
407
408       // Remove it!
409       MD.removeInstruction(S);
410
411       // DCE instructions only used to calculate that store
412       if (Instruction* D = dyn_cast<Instruction>(S->getOperand(0)))
413         possiblyDead.insert(D);
414       if (Instruction* D = dyn_cast<Instruction>(S->getOperand(1)))
415         possiblyDead.insert(D);
416
417       BBI++;
418       S->eraseFromParent();
419       NumFastStores++;
420       MadeChange = true;
421
422       continue;
423
424       // Otherwise, it is undead
425       } else if (A != AliasAnalysis::NoAlias)
426         undead.push_back(*I);
427   }
428
429   for (std::vector<Instruction*>::iterator I = undead.begin(), E = undead.end();
430        I != E; ++I)
431     if (AllocaInst *AI = dyn_cast<AllocaInst>(*I))
432       deadPointers.erase(AI);
433   
434   return MadeChange;
435 }
436
437 /// DeleteDeadInstructionChains - takes an instruction and a setvector of
438 /// dead instructions.  If I is dead, it is erased, and its operands are
439 /// checked for deadness.  If they are dead, they are added to the dead
440 /// setvector.
441 void DSE::DeleteDeadInstructionChains(Instruction *I,
442                                       SetVector<Instruction*> &DeadInsts) {
443   // Instruction must be dead.
444   if (!I->use_empty() || !isInstructionTriviallyDead(I)) return;
445
446   // Let the memory dependence know
447   getAnalysis<MemoryDependenceAnalysis>().removeInstruction(I);
448
449   // See if this made any operands dead.  We do it this way in case the
450   // instruction uses the same operand twice.  We don't want to delete a
451   // value then reference it.
452   for (unsigned i = 0, e = I->getNumOperands(); i != e; ++i) {
453     if (I->getOperand(i)->hasOneUse())
454       if (Instruction* Op = dyn_cast<Instruction>(I->getOperand(i)))
455         DeadInsts.insert(Op);      // Attempt to nuke it later.
456     
457     I->setOperand(i, 0);         // Drop from the operand list.
458   }
459
460   I->eraseFromParent();
461   ++NumFastOther;
462 }