Changes to fix up the inst_iterator to pass to boost iterator checks. This
[oota-llvm.git] / lib / Bytecode / Writer / SlotCalculator.cpp
1 //===-- SlotCalculator.cpp - Calculate what slots values land in ----------===//
2 // 
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file was developed by the LLVM research group and is distributed under
6 // the University of Illinois Open Source License. See LICENSE.TXT for details.
7 // 
8 //===----------------------------------------------------------------------===//
9 //
10 // This file implements a useful analysis step to figure out what numbered slots
11 // values in a program will land in (keeping track of per plane information).
12 //
13 // This is used when writing a file to disk, either in bytecode or assembly.
14 //
15 //===----------------------------------------------------------------------===//
16
17 #include "llvm/Analysis/SlotCalculator.h"
18 #include "llvm/Constants.h"
19 #include "llvm/DerivedTypes.h"
20 #include "llvm/iOther.h"
21 #include "llvm/Module.h"
22 #include "llvm/SymbolTable.h"
23 #include "llvm/Analysis/ConstantsScanner.h"
24 #include "Support/PostOrderIterator.h"
25 #include "Support/STLExtras.h"
26 #include <algorithm>
27 using namespace llvm;
28
29 #if 0
30 #define SC_DEBUG(X) std::cerr << X
31 #else
32 #define SC_DEBUG(X)
33 #endif
34
35 SlotCalculator::SlotCalculator(const Module *M, bool buildBytecodeInfo) {
36   BuildBytecodeInfo = buildBytecodeInfo;
37   ModuleContainsAllFunctionConstants = false;
38   TheModule = M;
39
40   // Preload table... Make sure that all of the primitive types are in the table
41   // and that their Primitive ID is equal to their slot #
42   //
43   SC_DEBUG("Inserting primitive types:\n");
44   for (unsigned i = 0; i < Type::FirstDerivedTyID; ++i) {
45     assert(Type::getPrimitiveType((Type::PrimitiveID)i));
46     insertValue(Type::getPrimitiveType((Type::PrimitiveID)i), true);
47   }
48
49   if (M == 0) return;   // Empty table...
50   processModule();
51 }
52
53 SlotCalculator::SlotCalculator(const Function *M, bool buildBytecodeInfo) {
54   BuildBytecodeInfo = buildBytecodeInfo;
55   ModuleContainsAllFunctionConstants = false;
56   TheModule = M ? M->getParent() : 0;
57
58   // Preload table... Make sure that all of the primitive types are in the table
59   // and that their Primitive ID is equal to their slot #
60   //
61   SC_DEBUG("Inserting primitive types:\n");
62   for (unsigned i = 0; i < Type::FirstDerivedTyID; ++i) {
63     assert(Type::getPrimitiveType((Type::PrimitiveID)i));
64     insertValue(Type::getPrimitiveType((Type::PrimitiveID)i), true);
65   }
66
67   if (TheModule == 0) return;   // Empty table...
68
69   processModule();              // Process module level stuff
70   incorporateFunction(M);       // Start out in incorporated state
71 }
72
73 unsigned SlotCalculator::getGlobalSlot(const Value *V) const {
74   assert(!CompactionTable.empty() &&
75          "This method can only be used when compaction is enabled!");
76   if (const ConstantPointerRef *CPR = dyn_cast<ConstantPointerRef>(V))
77     V = CPR->getValue();
78   std::map<const Value*, unsigned>::const_iterator I = NodeMap.find(V);
79   assert(I != NodeMap.end() && "Didn't find global slot entry!");
80   return I->second;
81 }
82
83 SlotCalculator::TypePlane &SlotCalculator::getPlane(unsigned Plane) {
84   unsigned PIdx = Plane;
85   if (CompactionTable.empty()) {                // No compaction table active?
86     // fall out
87   } else if (!CompactionTable[Plane].empty()) { // Compaction table active.
88     assert(Plane < CompactionTable.size());
89     return CompactionTable[Plane];
90   } else {
91     // Final case: compaction table active, but this plane is not
92     // compactified.  If the type plane is compactified, unmap back to the
93     // global type plane corresponding to "Plane".
94     if (!CompactionTable[Type::TypeTyID].empty()) {
95       const Type *Ty = cast<Type>(CompactionTable[Type::TypeTyID][Plane]);
96       std::map<const Value*, unsigned>::iterator It = NodeMap.find(Ty);
97       assert(It != NodeMap.end() && "Type not in global constant map?");
98       PIdx = It->second;
99     }
100   }
101
102   // Okay we are just returning an entry out of the main Table.  Make sure the
103   // plane exists and return it.
104   if (PIdx >= Table.size())
105     Table.resize(PIdx+1);
106   return Table[PIdx];
107 }
108
109
110 // processModule - Process all of the module level function declarations and
111 // types that are available.
112 //
113 void SlotCalculator::processModule() {
114   SC_DEBUG("begin processModule!\n");
115
116   // Add all of the global variables to the value table...
117   //
118   for (Module::const_giterator I = TheModule->gbegin(), E = TheModule->gend();
119        I != E; ++I)
120     getOrCreateSlot(I);
121
122   // Scavenge the types out of the functions, then add the functions themselves
123   // to the value table...
124   //
125   for (Module::const_iterator I = TheModule->begin(), E = TheModule->end();
126        I != E; ++I)
127     getOrCreateSlot(I);
128
129   // Add all of the module level constants used as initializers
130   //
131   for (Module::const_giterator I = TheModule->gbegin(), E = TheModule->gend();
132        I != E; ++I)
133     if (I->hasInitializer())
134       getOrCreateSlot(I->getInitializer());
135
136   // Now that all global constants have been added, rearrange constant planes
137   // that contain constant strings so that the strings occur at the start of the
138   // plane, not somewhere in the middle.
139   //
140   if (BuildBytecodeInfo) {
141     TypePlane &Types = Table[Type::TypeTyID];
142     for (unsigned plane = 0, e = Table.size(); plane != e; ++plane) {
143       if (const ArrayType *AT = dyn_cast<ArrayType>(Types[plane]))
144         if (AT->getElementType() == Type::SByteTy ||
145             AT->getElementType() == Type::UByteTy) {
146           TypePlane &Plane = Table[plane];
147           unsigned FirstNonStringID = 0;
148           for (unsigned i = 0, e = Plane.size(); i != e; ++i)
149             if (isa<ConstantAggregateZero>(Plane[i]) ||
150                 cast<ConstantArray>(Plane[i])->isString()) {
151               // Check to see if we have to shuffle this string around.  If not,
152               // don't do anything.
153               if (i != FirstNonStringID) {
154                 // Swap the plane entries....
155                 std::swap(Plane[i], Plane[FirstNonStringID]);
156                 
157                 // Keep the NodeMap up to date.
158                 NodeMap[Plane[i]] = i;
159                 NodeMap[Plane[FirstNonStringID]] = FirstNonStringID;
160               }
161               ++FirstNonStringID;
162             }
163         }
164     }
165   }
166   
167   // If we are emitting a bytecode file, scan all of the functions for their
168   // constants, which allows us to emit more compact modules.  This is optional,
169   // and is just used to compactify the constants used by different functions
170   // together.
171   //
172   // This functionality is completely optional for the bytecode writer, but
173   // tends to produce smaller bytecode files.  This should not be used in the
174   // future by clients that want to, for example, build and emit functions on
175   // the fly.  For now, however, it is unconditionally enabled when building
176   // bytecode information.
177   //
178   if (BuildBytecodeInfo) {
179     ModuleContainsAllFunctionConstants = true;
180
181     SC_DEBUG("Inserting function constants:\n");
182     for (Module::const_iterator F = TheModule->begin(), E = TheModule->end();
183          F != E; ++F) {
184       for (const_inst_iterator I = inst_begin(F), E = inst_end(F); I != E; ++I){
185         for (unsigned op = 0, e = I->getNumOperands(); op != e; ++op)
186           if (isa<Constant>(I->getOperand(op)))
187             getOrCreateSlot(I->getOperand(op));
188         getOrCreateSlot(I->getType());
189         if (const VANextInst *VAN = dyn_cast<VANextInst>(&*I))
190           getOrCreateSlot(VAN->getArgType());
191       }
192       processSymbolTableConstants(&F->getSymbolTable());
193     }
194   }
195
196   // Insert constants that are named at module level into the slot pool so that
197   // the module symbol table can refer to them...
198   //
199   if (BuildBytecodeInfo) {
200     SC_DEBUG("Inserting SymbolTable values:\n");
201     processSymbolTable(&TheModule->getSymbolTable());
202   }
203
204   // Now that we have collected together all of the information relevant to the
205   // module, compactify the type table if it is particularly big and outputting
206   // a bytecode file.  The basic problem we run into is that some programs have
207   // a large number of types, which causes the type field to overflow its size,
208   // which causes instructions to explode in size (particularly call
209   // instructions).  To avoid this behavior, we "sort" the type table so that
210   // all non-value types are pushed to the end of the type table, giving nice
211   // low numbers to the types that can be used by instructions, thus reducing
212   // the amount of explodage we suffer.
213   if (BuildBytecodeInfo && Table[Type::TypeTyID].size() >= 64) {
214     // Scan through the type table moving value types to the start of the table.
215     TypePlane *Types = &Table[Type::TypeTyID];
216     unsigned FirstNonValueTypeID = 0;
217     for (unsigned i = 0, e = Types->size(); i != e; ++i)
218       if (cast<Type>((*Types)[i])->isFirstClassType() ||
219           cast<Type>((*Types)[i])->isPrimitiveType()) {
220         // Check to see if we have to shuffle this type around.  If not, don't
221         // do anything.
222         if (i != FirstNonValueTypeID) {
223           assert(i != Type::TypeTyID && FirstNonValueTypeID != Type::TypeTyID &&
224                  "Cannot move around the type plane!");
225
226           // Swap the type ID's.
227           std::swap((*Types)[i], (*Types)[FirstNonValueTypeID]);
228
229           // Keep the NodeMap up to date.
230           NodeMap[(*Types)[i]] = i;
231           NodeMap[(*Types)[FirstNonValueTypeID]] = FirstNonValueTypeID;
232
233           // When we move a type, make sure to move its value plane as needed.
234           if (Table.size() > FirstNonValueTypeID) {
235             if (Table.size() <= i) Table.resize(i+1);
236             std::swap(Table[i], Table[FirstNonValueTypeID]);
237             Types = &Table[Type::TypeTyID];
238           }
239         }
240         ++FirstNonValueTypeID;
241       }
242   }
243
244   SC_DEBUG("end processModule!\n");
245 }
246
247 // processSymbolTable - Insert all of the values in the specified symbol table
248 // into the values table...
249 //
250 void SlotCalculator::processSymbolTable(const SymbolTable *ST) {
251   for (SymbolTable::const_iterator I = ST->begin(), E = ST->end(); I != E; ++I)
252     for (SymbolTable::type_const_iterator TI = I->second.begin(), 
253            TE = I->second.end(); TI != TE; ++TI)
254       getOrCreateSlot(TI->second);
255 }
256
257 void SlotCalculator::processSymbolTableConstants(const SymbolTable *ST) {
258   for (SymbolTable::const_iterator I = ST->begin(), E = ST->end(); I != E; ++I)
259     for (SymbolTable::type_const_iterator TI = I->second.begin(), 
260            TE = I->second.end(); TI != TE; ++TI)
261       if (isa<Constant>(TI->second) || isa<Type>(TI->second))
262         getOrCreateSlot(TI->second);
263 }
264
265
266 void SlotCalculator::incorporateFunction(const Function *F) {
267   assert(ModuleLevel.size() == 0 && "Module already incorporated!");
268
269   SC_DEBUG("begin processFunction!\n");
270
271   // If we emitted all of the function constants, build a compaction table.
272   if (BuildBytecodeInfo && ModuleContainsAllFunctionConstants)
273     buildCompactionTable(F);
274
275   // Update the ModuleLevel entries to be accurate.
276   ModuleLevel.resize(getNumPlanes());
277   for (unsigned i = 0, e = getNumPlanes(); i != e; ++i)
278     ModuleLevel[i] = getPlane(i).size();
279
280   // Iterate over function arguments, adding them to the value table...
281   for(Function::const_aiterator I = F->abegin(), E = F->aend(); I != E; ++I)
282     getOrCreateSlot(I);
283
284   if (BuildBytecodeInfo &&              // Assembly writer does not need this!
285       !ModuleContainsAllFunctionConstants) {
286     // Iterate over all of the instructions in the function, looking for
287     // constant values that are referenced.  Add these to the value pools
288     // before any nonconstant values.  This will be turned into the constant
289     // pool for the bytecode writer.
290     //
291     
292     // Emit all of the constants that are being used by the instructions in
293     // the function...
294     for_each(constant_begin(F), constant_end(F),
295              bind_obj(this, &SlotCalculator::getOrCreateSlot));
296     
297     // If there is a symbol table, it is possible that the user has names for
298     // constants that are not being used.  In this case, we will have problems
299     // if we don't emit the constants now, because otherwise we will get 
300     // symbol table references to constants not in the output.  Scan for these
301     // constants now.
302     //
303     processSymbolTableConstants(&F->getSymbolTable());
304   }
305
306   SC_DEBUG("Inserting Instructions:\n");
307
308   // Add all of the instructions to the type planes...
309   for (Function::const_iterator BB = F->begin(), E = F->end(); BB != E; ++BB) {
310     getOrCreateSlot(BB);
311     for (BasicBlock::const_iterator I = BB->begin(), E = BB->end(); I!=E; ++I) {
312       getOrCreateSlot(I);
313       if (const VANextInst *VAN = dyn_cast<VANextInst>(I))
314         getOrCreateSlot(VAN->getArgType());
315     }
316   }
317
318   // If we are building a compaction table, prune out planes that do not benefit
319   // from being compactified.
320   if (!CompactionTable.empty())
321     pruneCompactionTable();
322
323   SC_DEBUG("end processFunction!\n");
324 }
325
326 void SlotCalculator::purgeFunction() {
327   assert(ModuleLevel.size() != 0 && "Module not incorporated!");
328   unsigned NumModuleTypes = ModuleLevel.size();
329
330   SC_DEBUG("begin purgeFunction!\n");
331
332   // First, free the compaction map if used.
333   CompactionNodeMap.clear();
334
335   // Next, remove values from existing type planes
336   for (unsigned i = 0; i != NumModuleTypes; ++i) {
337     // Size of plane before function came
338     unsigned ModuleLev = getModuleLevel(i);
339     assert(int(ModuleLev) >= 0 && "BAD!");
340
341     TypePlane &Plane = getPlane(i);
342
343     assert(ModuleLev <= Plane.size() && "module levels higher than elements?");
344     while (Plane.size() != ModuleLev) {
345       assert(!isa<GlobalValue>(Plane.back()) &&
346              "Functions cannot define globals!");
347       NodeMap.erase(Plane.back());       // Erase from nodemap
348       Plane.pop_back();                  // Shrink plane
349     }
350   }
351
352   // We don't need this state anymore, free it up.
353   ModuleLevel.clear();
354
355   // Finally, remove any type planes defined by the function...
356   if (!CompactionTable.empty()) {
357     CompactionTable.clear();
358   } else {
359     while (Table.size() > NumModuleTypes) {
360       TypePlane &Plane = Table.back();
361       SC_DEBUG("Removing Plane " << (Table.size()-1) << " of size "
362                << Plane.size() << "\n");
363       while (Plane.size()) {
364         assert(!isa<GlobalValue>(Plane.back()) &&
365                "Functions cannot define globals!");
366         NodeMap.erase(Plane.back());   // Erase from nodemap
367         Plane.pop_back();              // Shrink plane
368       }
369       
370       Table.pop_back();                // Nuke the plane, we don't like it.
371     }
372   }
373
374   SC_DEBUG("end purgeFunction!\n");
375 }
376
377 static inline bool hasNullValue(unsigned TyID) {
378   return TyID != Type::LabelTyID && TyID != Type::TypeTyID &&
379          TyID != Type::VoidTyID;
380 }
381
382 /// getOrCreateCompactionTableSlot - This method is used to build up the initial
383 /// approximation of the compaction table.
384 unsigned SlotCalculator::getOrCreateCompactionTableSlot(const Value *V) {
385   if (const ConstantPointerRef *CPR = dyn_cast<ConstantPointerRef>(V))
386     V = CPR->getValue();
387   std::map<const Value*, unsigned>::iterator I =
388     CompactionNodeMap.lower_bound(V);
389   if (I != CompactionNodeMap.end() && I->first == V)
390     return I->second;  // Already exists?
391
392   // Make sure the type is in the table.
393   unsigned Ty;
394   if (!CompactionTable[Type::TypeTyID].empty())
395     Ty = getOrCreateCompactionTableSlot(V->getType());
396   else    // If the type plane was decompactified, use the global plane ID
397     Ty = getSlot(V->getType());
398   if (CompactionTable.size() <= Ty)
399     CompactionTable.resize(Ty+1);
400
401   assert(!isa<Type>(V) || ModuleLevel.empty());
402
403   TypePlane &TyPlane = CompactionTable[Ty];
404
405   // Make sure to insert the null entry if the thing we are inserting is not a
406   // null constant.
407   if (TyPlane.empty() && hasNullValue(V->getType()->getPrimitiveID())) {
408     Value *ZeroInitializer = Constant::getNullValue(V->getType());
409     if (V != ZeroInitializer) {
410       TyPlane.push_back(ZeroInitializer);
411       CompactionNodeMap[ZeroInitializer] = 0;
412     }
413   }
414
415   unsigned SlotNo = TyPlane.size();
416   TyPlane.push_back(V);
417   CompactionNodeMap.insert(std::make_pair(V, SlotNo));
418   return SlotNo;
419 }
420
421
422 /// buildCompactionTable - Since all of the function constants and types are
423 /// stored in the module-level constant table, we don't need to emit a function
424 /// constant table.  Also due to this, the indices for various constants and
425 /// types might be very large in large programs.  In order to avoid blowing up
426 /// the size of instructions in the bytecode encoding, we build a compaction
427 /// table, which defines a mapping from function-local identifiers to global
428 /// identifiers.
429 void SlotCalculator::buildCompactionTable(const Function *F) {
430   assert(CompactionNodeMap.empty() && "Compaction table already built!");
431   // First step, insert the primitive types.
432   CompactionTable.resize(Type::TypeTyID+1);
433   for (unsigned i = 0; i != Type::FirstDerivedTyID; ++i) {
434     const Type *PrimTy = Type::getPrimitiveType((Type::PrimitiveID)i);
435     CompactionTable[Type::TypeTyID].push_back(PrimTy);
436     CompactionNodeMap[PrimTy] = i;
437   }
438
439   // Next, include any types used by function arguments.
440   for (Function::const_aiterator I = F->abegin(), E = F->aend(); I != E; ++I)
441     getOrCreateCompactionTableSlot(I->getType());
442
443   // Next, find all of the types and values that are referred to by the
444   // instructions in the program.
445   for (const_inst_iterator I = inst_begin(F), E = inst_end(F); I != E; ++I) {
446     getOrCreateCompactionTableSlot(I->getType());
447     for (unsigned op = 0, e = I->getNumOperands(); op != e; ++op)
448       if (isa<Constant>(I->getOperand(op)) ||
449           isa<GlobalValue>(I->getOperand(op)))
450         getOrCreateCompactionTableSlot(I->getOperand(op));
451     if (const VANextInst *VAN = dyn_cast<VANextInst>(&*I))
452       getOrCreateCompactionTableSlot(VAN->getArgType());
453   }
454
455   const SymbolTable &ST = F->getSymbolTable();
456   for (SymbolTable::const_iterator I = ST.begin(), E = ST.end(); I != E; ++I)
457     for (SymbolTable::type_const_iterator TI = I->second.begin(), 
458            TE = I->second.end(); TI != TE; ++TI)
459       if (isa<Constant>(TI->second) || isa<Type>(TI->second) ||
460           isa<GlobalValue>(TI->second))
461         getOrCreateCompactionTableSlot(TI->second);
462
463   // Now that we have all of the values in the table, and know what types are
464   // referenced, make sure that there is at least the zero initializer in any
465   // used type plane.  Since the type was used, we will be emitting instructions
466   // to the plane even if there are no constants in it.
467   CompactionTable.resize(CompactionTable[Type::TypeTyID].size());
468   for (unsigned i = 0, e = CompactionTable.size(); i != e; ++i)
469     if (CompactionTable[i].empty() && i != Type::VoidTyID &&
470         i != Type::LabelTyID) {
471       const Type *Ty = cast<Type>(CompactionTable[Type::TypeTyID][i]);
472       getOrCreateCompactionTableSlot(Constant::getNullValue(Ty));
473     }
474   
475   // Okay, now at this point, we have a legal compaction table.  Since we want
476   // to emit the smallest possible binaries, do not compactify the type plane if
477   // it will not save us anything.  Because we have not yet incorporated the
478   // function body itself yet, we don't know whether or not it's a good idea to
479   // compactify other planes.  We will defer this decision until later.
480   TypePlane &GlobalTypes = Table[Type::TypeTyID];
481   
482   // All of the values types will be scrunched to the start of the types plane
483   // of the global table.  Figure out just how many there are.
484   assert(!GlobalTypes.empty() && "No global types???");
485   unsigned NumFCTypes = GlobalTypes.size()-1;
486   while (!cast<Type>(GlobalTypes[NumFCTypes])->isFirstClassType())
487     --NumFCTypes;
488
489   // If there are fewer that 64 types, no instructions will be exploded due to
490   // the size of the type operands.  Thus there is no need to compactify types.
491   // Also, if the compaction table contains most of the entries in the global
492   // table, there really is no reason to compactify either.
493   if (NumFCTypes < 64) {
494     // Decompactifying types is tricky, because we have to move type planes all
495     // over the place.  At least we don't need to worry about updating the
496     // CompactionNodeMap for non-types though.
497     std::vector<TypePlane> TmpCompactionTable;
498     std::swap(CompactionTable, TmpCompactionTable);
499     TypePlane Types;
500     std::swap(Types, TmpCompactionTable[Type::TypeTyID]);
501     
502     // Move each plane back over to the uncompactified plane
503     while (!Types.empty()) {
504       const Type *Ty = cast<Type>(Types.back());
505       Types.pop_back();
506       CompactionNodeMap.erase(Ty);  // Decompactify type!
507
508       if (Ty != Type::TypeTy) {
509         // Find the global slot number for this type.
510         int TySlot = getSlot(Ty);
511         assert(TySlot != -1 && "Type doesn't exist in global table?");
512         
513         // Now we know where to put the compaction table plane.
514         if (CompactionTable.size() <= unsigned(TySlot))
515           CompactionTable.resize(TySlot+1);
516         // Move the plane back into the compaction table.
517         std::swap(CompactionTable[TySlot], TmpCompactionTable[Types.size()]);
518
519         // And remove the empty plane we just moved in.
520         TmpCompactionTable.pop_back();
521       }
522     }
523   }
524 }
525
526
527 /// pruneCompactionTable - Once the entire function being processed has been
528 /// incorporated into the current compaction table, look over the compaction
529 /// table and check to see if there are any values whose compaction will not
530 /// save us any space in the bytecode file.  If compactifying these values
531 /// serves no purpose, then we might as well not even emit the compactification
532 /// information to the bytecode file, saving a bit more space.
533 ///
534 /// Note that the type plane has already been compactified if possible.
535 ///
536 void SlotCalculator::pruneCompactionTable() {
537   TypePlane &TyPlane = CompactionTable[Type::TypeTyID];
538   for (unsigned ctp = 0, e = CompactionTable.size(); ctp != e; ++ctp)
539     if (ctp != Type::TypeTyID && !CompactionTable[ctp].empty()) {
540       TypePlane &CPlane = CompactionTable[ctp];
541       unsigned GlobalSlot = ctp;
542       if (!TyPlane.empty())
543         GlobalSlot = getGlobalSlot(TyPlane[ctp]);
544
545       if (GlobalSlot >= Table.size())
546         Table.resize(GlobalSlot+1);
547       TypePlane &GPlane = Table[GlobalSlot];
548       
549       unsigned ModLevel = getModuleLevel(ctp);
550       unsigned NumFunctionObjs = CPlane.size()-ModLevel;
551
552       // If the maximum index required if all entries in this plane were merged
553       // into the global plane is less than 64, go ahead and eliminate the
554       // plane.
555       bool PrunePlane = GPlane.size() + NumFunctionObjs < 64;
556
557       // If there are no function-local values defined, and the maximum
558       // referenced global entry is less than 64, we don't need to compactify.
559       if (!PrunePlane && NumFunctionObjs == 0) {
560         unsigned MaxIdx = 0;
561         for (unsigned i = 0; i != ModLevel; ++i) {
562           unsigned Idx = NodeMap[CPlane[i]];
563           if (Idx > MaxIdx) MaxIdx = Idx;
564         }
565         PrunePlane = MaxIdx < 64;
566       }
567
568       // Ok, finally, if we decided to prune this plane out of the compaction
569       // table, do so now.
570       if (PrunePlane) {
571         TypePlane OldPlane;
572         std::swap(OldPlane, CPlane);
573
574         // Loop over the function local objects, relocating them to the global
575         // table plane.
576         for (unsigned i = ModLevel, e = OldPlane.size(); i != e; ++i) {
577           const Value *V = OldPlane[i];
578           CompactionNodeMap.erase(V);
579           assert(NodeMap.count(V) == 0 && "Value already in table??");
580           getOrCreateSlot(V);
581         }
582
583         // For compactified global values, just remove them from the compaction
584         // node map.
585         for (unsigned i = 0; i != ModLevel; ++i)
586           CompactionNodeMap.erase(OldPlane[i]);
587
588         // Update the new modulelevel for this plane.
589         assert(ctp < ModuleLevel.size() && "Cannot set modulelevel!");
590         ModuleLevel[ctp] = GPlane.size()-NumFunctionObjs;
591         assert((int)ModuleLevel[ctp] >= 0 && "Bad computation!");
592       }
593     }
594 }
595
596
597 int SlotCalculator::getSlot(const Value *V) const {
598   // If there is a CompactionTable active...
599   if (!CompactionNodeMap.empty()) {
600     std::map<const Value*, unsigned>::const_iterator I =
601       CompactionNodeMap.find(V);
602     if (I != CompactionNodeMap.end())
603       return (int)I->second;
604     // Otherwise, if it's not in the compaction table, it must be in a
605     // non-compactified plane.
606   }
607
608   std::map<const Value*, unsigned>::const_iterator I = NodeMap.find(V);
609   if (I != NodeMap.end())
610     return (int)I->second;
611
612   // Do not number ConstantPointerRef's at all.  They are an abomination.
613   if (const ConstantPointerRef *CPR = dyn_cast<ConstantPointerRef>(V))
614     return getSlot(CPR->getValue());
615
616   return -1;
617 }
618
619
620 int SlotCalculator::getOrCreateSlot(const Value *V) {
621   if (V->getType() == Type::VoidTy) return -1;
622
623   int SlotNo = getSlot(V);        // Check to see if it's already in!
624   if (SlotNo != -1) return SlotNo;
625
626   // Do not number ConstantPointerRef's at all.  They are an abomination.
627   if (const ConstantPointerRef *CPR = dyn_cast<ConstantPointerRef>(V))
628     return getOrCreateSlot(CPR->getValue());
629
630   if (!isa<GlobalValue>(V))  // Initializers for globals are handled explicitly
631     if (const Constant *C = dyn_cast<Constant>(V)) {
632       assert(CompactionNodeMap.empty() &&
633              "All needed constants should be in the compaction map already!");
634
635       // If we are emitting a bytecode file, do not index the characters that
636       // make up constant strings.  We emit constant strings as special
637       // entities that don't require their individual characters to be emitted.
638       if (!BuildBytecodeInfo || !isa<ConstantArray>(C) ||
639           !cast<ConstantArray>(C)->isString()) {
640         // This makes sure that if a constant has uses (for example an array of
641         // const ints), that they are inserted also.
642         //
643         for (User::const_op_iterator I = C->op_begin(), E = C->op_end();
644              I != E; ++I)
645           getOrCreateSlot(*I);
646       } else {
647         assert(ModuleLevel.empty() &&
648                "How can a constant string be directly accessed in a function?");
649         // Otherwise, if we are emitting a bytecode file and this IS a string,
650         // remember it.
651         if (!C->isNullValue())
652           ConstantStrings.push_back(cast<ConstantArray>(C));
653       }
654     }
655
656   return insertValue(V);
657 }
658
659
660 int SlotCalculator::insertValue(const Value *D, bool dontIgnore) {
661   assert(D && "Can't insert a null value!");
662   assert(getSlot(D) == -1 && "Value is already in the table!");
663
664   // If we are building a compaction map, and if this plane is being compacted,
665   // insert the value into the compaction map, not into the global map.
666   if (!CompactionNodeMap.empty()) {
667     if (D->getType() == Type::VoidTy) return -1;  // Do not insert void values
668     assert(!isa<Type>(D) && !isa<Constant>(D) && !isa<GlobalValue>(D) &&
669            "Types, constants, and globals should be in global SymTab!");
670
671     int Plane = getSlot(D->getType());
672     assert(Plane != -1 && CompactionTable.size() > (unsigned)Plane &&
673            "Didn't find value type!");
674     if (!CompactionTable[Plane].empty())
675       return getOrCreateCompactionTableSlot(D);
676   }
677
678   // If this node does not contribute to a plane, or if the node has a 
679   // name and we don't want names, then ignore the silly node... Note that types
680   // do need slot numbers so that we can keep track of where other values land.
681   //
682   if (!dontIgnore)                               // Don't ignore nonignorables!
683     if (D->getType() == Type::VoidTy ||          // Ignore void type nodes
684         (!BuildBytecodeInfo &&                   // Ignore named and constants
685          (D->hasName() || isa<Constant>(D)) && !isa<Type>(D))) {
686       SC_DEBUG("ignored value " << *D << "\n");
687       return -1;                  // We do need types unconditionally though
688     }
689
690   // If it's a type, make sure that all subtypes of the type are included...
691   if (const Type *TheTy = dyn_cast<Type>(D)) {
692
693     // Insert the current type before any subtypes.  This is important because
694     // recursive types elements are inserted in a bottom up order.  Changing
695     // this here can break things.  For example:
696     //
697     //    global { \2 * } { { \2 }* null }
698     //
699     int ResultSlot = doInsertValue(TheTy);
700     SC_DEBUG("  Inserted type: " << TheTy->getDescription() << " slot=" <<
701              ResultSlot << "\n");
702
703     // Loop over any contained types in the definition... in post
704     // order.
705     //
706     for (po_iterator<const Type*> I = po_begin(TheTy), E = po_end(TheTy);
707          I != E; ++I) {
708       if (*I != TheTy) {
709         const Type *SubTy = *I;
710         // If we haven't seen this sub type before, add it to our type table!
711         if (getSlot(SubTy) == -1) {
712           SC_DEBUG("  Inserting subtype: " << SubTy->getDescription() << "\n");
713           int Slot = doInsertValue(SubTy);
714           SC_DEBUG("  Inserted subtype: " << SubTy->getDescription() << 
715                    " slot=" << Slot << "\n");
716         }
717       }
718     }
719     return ResultSlot;
720   }
721
722   // Okay, everything is happy, actually insert the silly value now...
723   return doInsertValue(D);
724 }
725
726 // doInsertValue - This is a small helper function to be called only
727 // be insertValue.
728 //
729 int SlotCalculator::doInsertValue(const Value *D) {
730   const Type *Typ = D->getType();
731   unsigned Ty;
732
733   // Used for debugging DefSlot=-1 assertion...
734   //if (Typ == Type::TypeTy)
735   //  cerr << "Inserting type '" << cast<Type>(D)->getDescription() << "'!\n";
736
737   if (Typ->isDerivedType()) {
738     int ValSlot;
739     if (CompactionTable.empty())
740       ValSlot = getSlot(Typ);
741     else
742       ValSlot = getGlobalSlot(Typ);
743     if (ValSlot == -1) {                // Have we already entered this type?
744       // Nope, this is the first we have seen the type, process it.
745       ValSlot = insertValue(Typ, true);
746       assert(ValSlot != -1 && "ProcessType returned -1 for a type?");
747     }
748     Ty = (unsigned)ValSlot;
749   } else {
750     Ty = Typ->getPrimitiveID();
751   }
752   
753   if (Table.size() <= Ty)    // Make sure we have the type plane allocated...
754     Table.resize(Ty+1, TypePlane());
755
756   // If this is the first value to get inserted into the type plane, make sure
757   // to insert the implicit null value...
758   if (Table[Ty].empty() && BuildBytecodeInfo && hasNullValue(Ty)) {
759     Value *ZeroInitializer = Constant::getNullValue(Typ);
760
761     // If we are pushing zeroinit, it will be handled below.
762     if (D != ZeroInitializer) {
763       Table[Ty].push_back(ZeroInitializer);
764       NodeMap[ZeroInitializer] = 0;
765     }
766   }
767
768   // Insert node into table and NodeMap...
769   unsigned DestSlot = NodeMap[D] = Table[Ty].size();
770   Table[Ty].push_back(D);
771
772   SC_DEBUG("  Inserting value [" << Ty << "] = " << D << " slot=" << 
773            DestSlot << " [");
774   // G = Global, C = Constant, T = Type, F = Function, o = other
775   SC_DEBUG((isa<GlobalVariable>(D) ? "G" : (isa<Constant>(D) ? "C" : 
776            (isa<Type>(D) ? "T" : (isa<Function>(D) ? "F" : "o")))));
777   SC_DEBUG("]\n");
778   return (int)DestSlot;
779 }