MC: Implicitly assign section addresses when the previous fragment is layed out.
[oota-llvm.git] / lib / MC / MCAssembler.cpp
1 //===- lib/MC/MCAssembler.cpp - Assembler Backend Implementation ----------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9
10 #define DEBUG_TYPE "assembler"
11 #include "llvm/MC/MCAssembler.h"
12 #include "llvm/MC/MCAsmLayout.h"
13 #include "llvm/MC/MCCodeEmitter.h"
14 #include "llvm/MC/MCExpr.h"
15 #include "llvm/MC/MCObjectWriter.h"
16 #include "llvm/MC/MCSymbol.h"
17 #include "llvm/MC/MCValue.h"
18 #include "llvm/ADT/OwningPtr.h"
19 #include "llvm/ADT/Statistic.h"
20 #include "llvm/ADT/StringExtras.h"
21 #include "llvm/ADT/Twine.h"
22 #include "llvm/Support/Debug.h"
23 #include "llvm/Support/ErrorHandling.h"
24 #include "llvm/Support/raw_ostream.h"
25 #include "llvm/Target/TargetRegistry.h"
26 #include "llvm/Target/TargetAsmBackend.h"
27
28 #include <vector>
29 using namespace llvm;
30
31 namespace {
32 namespace stats {
33 STATISTIC(EmittedFragments, "Number of emitted assembler fragments");
34 STATISTIC(EvaluateFixup, "Number of evaluated fixups");
35 STATISTIC(FragmentLayouts, "Number of fragment layouts");
36 STATISTIC(ObjectBytes, "Number of emitted object file bytes");
37 STATISTIC(RelaxationSteps, "Number of assembler layout and relaxation steps");
38 STATISTIC(RelaxedInstructions, "Number of relaxed instructions");
39 STATISTIC(SectionLayouts, "Number of section layouts");
40 }
41 }
42
43 // FIXME FIXME FIXME: There are number of places in this file where we convert
44 // what is a 64-bit assembler value used for computation into a value in the
45 // object file, which may truncate it. We should detect that truncation where
46 // invalid and report errors back.
47
48 /* *** */
49
50 MCAsmLayout::MCAsmLayout(MCAssembler &Asm) : Assembler(Asm) {
51   // Compute the section layout order. Virtual sections must go last.
52   for (MCAssembler::iterator it = Asm.begin(), ie = Asm.end(); it != ie; ++it)
53     if (!Asm.getBackend().isVirtualSection(it->getSection()))
54       SectionOrder.push_back(&*it);
55   for (MCAssembler::iterator it = Asm.begin(), ie = Asm.end(); it != ie; ++it)
56     if (Asm.getBackend().isVirtualSection(it->getSection()))
57       SectionOrder.push_back(&*it);
58 }
59
60 void MCAsmLayout::UpdateForSlide(MCFragment *F, int SlideAmount) {
61   // We shouldn't have to do anything special to support negative slides, and it
62   // is a perfectly valid thing to do as long as other parts of the system can
63   // guarantee convergence.
64   assert(SlideAmount >= 0 && "Negative slides not yet supported");
65
66   // Update the layout by simply recomputing the layout for the entire
67   // file. This is trivially correct, but very slow.
68   //
69   // FIXME-PERF: This is O(N^2), but will be eliminated once we get smarter.
70
71   // Layout the sections in order.
72   LayoutFile();
73 }
74
75 void MCAsmLayout::FragmentReplaced(MCFragment *Src, MCFragment *Dst) {
76   Dst->Offset = Src->Offset;
77   Dst->EffectiveSize = Src->EffectiveSize;
78 }
79
80 uint64_t MCAsmLayout::getFragmentAddress(const MCFragment *F) const {
81   assert(F->getParent() && "Missing section()!");
82   return getSectionAddress(F->getParent()) + getFragmentOffset(F);
83 }
84
85 uint64_t MCAsmLayout::getFragmentEffectiveSize(const MCFragment *F) const {
86   assert(F->EffectiveSize != ~UINT64_C(0) && "Address not set!");
87   return F->EffectiveSize;
88 }
89
90 uint64_t MCAsmLayout::getFragmentOffset(const MCFragment *F) const {
91   assert(F->Offset != ~UINT64_C(0) && "Address not set!");
92   return F->Offset;
93 }
94
95 uint64_t MCAsmLayout::getSymbolAddress(const MCSymbolData *SD) const {
96   assert(SD->getFragment() && "Invalid getAddress() on undefined symbol!");
97   return getFragmentAddress(SD->getFragment()) + SD->getOffset();
98 }
99
100 uint64_t MCAsmLayout::getSectionAddress(const MCSectionData *SD) const {
101   assert(SD->Address != ~UINT64_C(0) && "Address not set!");
102   return SD->Address;
103 }
104
105 uint64_t MCAsmLayout::getSectionAddressSize(const MCSectionData *SD) const {
106   // The size is the last fragment's end offset.
107   const MCFragment &F = SD->getFragmentList().back();
108   return getFragmentOffset(&F) + getFragmentEffectiveSize(&F);
109 }
110
111 uint64_t MCAsmLayout::getSectionFileSize(const MCSectionData *SD) const {
112   // Virtual sections have no file size.
113   if (getAssembler().getBackend().isVirtualSection(SD->getSection()))
114     return 0;
115
116   // Otherwise, the file size is the same as the address space size.
117   return getSectionAddressSize(SD);
118 }
119
120 uint64_t MCAsmLayout::getSectionSize(const MCSectionData *SD) const {
121   // The logical size is the address space size minus any tail padding.
122   uint64_t Size = getSectionAddressSize(SD);
123   const MCAlignFragment *AF =
124     dyn_cast<MCAlignFragment>(&(SD->getFragmentList().back()));
125   if (AF && AF->hasOnlyAlignAddress())
126     Size -= getFragmentEffectiveSize(AF);
127
128   return Size;
129 }
130
131 /* *** */
132
133 MCFragment::MCFragment() : Kind(FragmentType(~0)) {
134 }
135
136 MCFragment::MCFragment(FragmentType _Kind, MCSectionData *_Parent)
137   : Kind(_Kind), Parent(_Parent), Atom(0), EffectiveSize(~UINT64_C(0))
138 {
139   if (Parent)
140     Parent->getFragmentList().push_back(this);
141 }
142
143 MCFragment::~MCFragment() {
144 }
145
146 /* *** */
147
148 MCSectionData::MCSectionData() : Section(0) {}
149
150 MCSectionData::MCSectionData(const MCSection &_Section, MCAssembler *A)
151   : Section(&_Section),
152     Alignment(1),
153     Address(~UINT64_C(0)),
154     HasInstructions(false)
155 {
156   if (A)
157     A->getSectionList().push_back(this);
158 }
159
160 /* *** */
161
162 MCSymbolData::MCSymbolData() : Symbol(0) {}
163
164 MCSymbolData::MCSymbolData(const MCSymbol &_Symbol, MCFragment *_Fragment,
165                            uint64_t _Offset, MCAssembler *A)
166   : Symbol(&_Symbol), Fragment(_Fragment), Offset(_Offset),
167     IsExternal(false), IsPrivateExtern(false),
168     CommonSize(0), CommonAlign(0), Flags(0), Index(0)
169 {
170   if (A)
171     A->getSymbolList().push_back(this);
172 }
173
174 /* *** */
175
176 MCAssembler::MCAssembler(MCContext &_Context, TargetAsmBackend &_Backend,
177                          MCCodeEmitter &_Emitter, raw_ostream &_OS)
178   : Context(_Context), Backend(_Backend), Emitter(_Emitter),
179     OS(_OS), RelaxAll(false), SubsectionsViaSymbols(false)
180 {
181 }
182
183 MCAssembler::~MCAssembler() {
184 }
185
186 static bool isScatteredFixupFullyResolvedSimple(const MCAssembler &Asm,
187                                                 const MCAsmFixup &Fixup,
188                                                 const MCValue Target,
189                                                 const MCSection *BaseSection) {
190   // The effective fixup address is
191   //     addr(atom(A)) + offset(A)
192   //   - addr(atom(B)) - offset(B)
193   //   - addr(<base symbol>) + <fixup offset from base symbol>
194   // and the offsets are not relocatable, so the fixup is fully resolved when
195   //  addr(atom(A)) - addr(atom(B)) - addr(<base symbol>)) == 0.
196   //
197   // The simple (Darwin, except on x86_64) way of dealing with this was to
198   // assume that any reference to a temporary symbol *must* be a temporary
199   // symbol in the same atom, unless the sections differ. Therefore, any PCrel
200   // relocation to a temporary symbol (in the same section) is fully
201   // resolved. This also works in conjunction with absolutized .set, which
202   // requires the compiler to use .set to absolutize the differences between
203   // symbols which the compiler knows to be assembly time constants, so we don't
204   // need to worry about considering symbol differences fully resolved.
205
206   // Non-relative fixups are only resolved if constant.
207   if (!BaseSection)
208     return Target.isAbsolute();
209
210   // Otherwise, relative fixups are only resolved if not a difference and the
211   // target is a temporary in the same section.
212   if (Target.isAbsolute() || Target.getSymB())
213     return false;
214
215   const MCSymbol *A = &Target.getSymA()->getSymbol();
216   if (!A->isTemporary() || !A->isInSection() ||
217       &A->getSection() != BaseSection)
218     return false;
219
220   return true;
221 }
222
223 static bool isScatteredFixupFullyResolved(const MCAssembler &Asm,
224                                           const MCAsmLayout &Layout,
225                                           const MCAsmFixup &Fixup,
226                                           const MCValue Target,
227                                           const MCSymbolData *BaseSymbol) {
228   // The effective fixup address is
229   //     addr(atom(A)) + offset(A)
230   //   - addr(atom(B)) - offset(B)
231   //   - addr(BaseSymbol) + <fixup offset from base symbol>
232   // and the offsets are not relocatable, so the fixup is fully resolved when
233   //  addr(atom(A)) - addr(atom(B)) - addr(BaseSymbol) == 0.
234   //
235   // Note that "false" is almost always conservatively correct (it means we emit
236   // a relocation which is unnecessary), except when it would force us to emit a
237   // relocation which the target cannot encode.
238
239   const MCSymbolData *A_Base = 0, *B_Base = 0;
240   if (const MCSymbolRefExpr *A = Target.getSymA()) {
241     // Modified symbol references cannot be resolved.
242     if (A->getKind() != MCSymbolRefExpr::VK_None)
243       return false;
244
245     A_Base = Asm.getAtom(Layout, &Asm.getSymbolData(A->getSymbol()));
246     if (!A_Base)
247       return false;
248   }
249
250   if (const MCSymbolRefExpr *B = Target.getSymB()) {
251     // Modified symbol references cannot be resolved.
252     if (B->getKind() != MCSymbolRefExpr::VK_None)
253       return false;
254
255     B_Base = Asm.getAtom(Layout, &Asm.getSymbolData(B->getSymbol()));
256     if (!B_Base)
257       return false;
258   }
259
260   // If there is no base, A and B have to be the same atom for this fixup to be
261   // fully resolved.
262   if (!BaseSymbol)
263     return A_Base == B_Base;
264
265   // Otherwise, B must be missing and A must be the base.
266   return !B_Base && BaseSymbol == A_Base;
267 }
268
269 bool MCAssembler::isSymbolLinkerVisible(const MCSymbolData *SD) const {
270   // Non-temporary labels should always be visible to the linker.
271   if (!SD->getSymbol().isTemporary())
272     return true;
273
274   // Absolute temporary labels are never visible.
275   if (!SD->getFragment())
276     return false;
277
278   // Otherwise, check if the section requires symbols even for temporary labels.
279   return getBackend().doesSectionRequireSymbols(
280     SD->getFragment()->getParent()->getSection());
281 }
282
283 const MCSymbolData *MCAssembler::getAtom(const MCAsmLayout &Layout,
284                                          const MCSymbolData *SD) const {
285   // Linker visible symbols define atoms.
286   if (isSymbolLinkerVisible(SD))
287     return SD;
288
289   // Absolute and undefined symbols have no defining atom.
290   if (!SD->getFragment())
291     return 0;
292
293   // Non-linker visible symbols in sections which can't be atomized have no
294   // defining atom.
295   if (!getBackend().isSectionAtomizable(
296         SD->getFragment()->getParent()->getSection()))
297     return 0;
298
299   // Otherwise, return the atom for the containing fragment.
300   return SD->getFragment()->getAtom();
301 }
302
303 bool MCAssembler::EvaluateFixup(const MCAsmLayout &Layout,
304                                 const MCAsmFixup &Fixup, const MCFragment *DF,
305                                 MCValue &Target, uint64_t &Value) const {
306   ++stats::EvaluateFixup;
307
308   if (!Fixup.Value->EvaluateAsRelocatable(Target, &Layout))
309     report_fatal_error("expected relocatable expression");
310
311   // FIXME: How do non-scattered symbols work in ELF? I presume the linker
312   // doesn't support small relocations, but then under what criteria does the
313   // assembler allow symbol differences?
314
315   Value = Target.getConstant();
316
317   bool IsPCRel =
318     Emitter.getFixupKindInfo(Fixup.Kind).Flags & MCFixupKindInfo::FKF_IsPCRel;
319   bool IsResolved = true;
320   if (const MCSymbolRefExpr *A = Target.getSymA()) {
321     if (A->getSymbol().isDefined())
322       Value += Layout.getSymbolAddress(&getSymbolData(A->getSymbol()));
323     else
324       IsResolved = false;
325   }
326   if (const MCSymbolRefExpr *B = Target.getSymB()) {
327     if (B->getSymbol().isDefined())
328       Value -= Layout.getSymbolAddress(&getSymbolData(B->getSymbol()));
329     else
330       IsResolved = false;
331   }
332
333   // If we are using scattered symbols, determine whether this value is actually
334   // resolved; scattering may cause atoms to move.
335   if (IsResolved && getBackend().hasScatteredSymbols()) {
336     if (getBackend().hasReliableSymbolDifference()) {
337       // If this is a PCrel relocation, find the base atom (identified by its
338       // symbol) that the fixup value is relative to.
339       const MCSymbolData *BaseSymbol = 0;
340       if (IsPCRel) {
341         BaseSymbol = DF->getAtom();
342         if (!BaseSymbol)
343           IsResolved = false;
344       }
345
346       if (IsResolved)
347         IsResolved = isScatteredFixupFullyResolved(*this, Layout, Fixup, Target,
348                                                    BaseSymbol);
349     } else {
350       const MCSection *BaseSection = 0;
351       if (IsPCRel)
352         BaseSection = &DF->getParent()->getSection();
353
354       IsResolved = isScatteredFixupFullyResolvedSimple(*this, Fixup, Target,
355                                                        BaseSection);
356     }
357   }
358
359   if (IsPCRel)
360     Value -= Layout.getFragmentAddress(DF) + Fixup.Offset;
361
362   return IsResolved;
363 }
364
365 uint64_t MCAssembler::ComputeFragmentSize(MCAsmLayout &Layout,
366                                           const MCFragment &F,
367                                           uint64_t SectionAddress,
368                                           uint64_t FragmentOffset) const {
369   switch (F.getKind()) {
370   case MCFragment::FT_Data:
371     return cast<MCDataFragment>(F).getContents().size();
372   case MCFragment::FT_Fill:
373     return cast<MCFillFragment>(F).getSize();
374   case MCFragment::FT_Inst:
375     return cast<MCInstFragment>(F).getInstSize();
376
377   case MCFragment::FT_Align: {
378     const MCAlignFragment &AF = cast<MCAlignFragment>(F);
379
380     assert((!AF.hasOnlyAlignAddress() || !AF.getNextNode()) &&
381            "Invalid OnlyAlignAddress bit, not the last fragment!");
382
383     uint64_t Size = OffsetToAlignment(SectionAddress + FragmentOffset,
384                                       AF.getAlignment());
385
386     // Honor MaxBytesToEmit.
387     if (Size > AF.getMaxBytesToEmit())
388       return 0;
389
390     return Size;
391   }
392
393   case MCFragment::FT_Org: {
394     const MCOrgFragment &OF = cast<MCOrgFragment>(F);
395
396     // FIXME: We should compute this sooner, we don't want to recurse here, and
397     // we would like to be more functional.
398     int64_t TargetLocation;
399     if (!OF.getOffset().EvaluateAsAbsolute(TargetLocation, &Layout))
400       report_fatal_error("expected assembly-time absolute expression");
401
402     // FIXME: We need a way to communicate this error.
403     int64_t Offset = TargetLocation - FragmentOffset;
404     if (Offset < 0)
405       report_fatal_error("invalid .org offset '" + Twine(TargetLocation) +
406                          "' (at offset '" + Twine(FragmentOffset) + "'");
407
408     return Offset;
409   }
410   }
411
412   assert(0 && "invalid fragment kind");
413   return 0;
414 }
415
416 void MCAsmLayout::LayoutFile() {
417   // Initialize the first section.
418   if (!getSectionOrder().empty())
419     getSectionOrder().front()->Address = 0;
420
421   for (unsigned i = 0, e = getSectionOrder().size(); i != e; ++i) {
422     MCSectionData *SD = getSectionOrder()[i];
423
424     for (MCSectionData::iterator it = SD->begin(),
425            ie = SD->end(); it != ie; ++it)
426       LayoutFragment(it);
427   }
428 }
429
430 void MCAsmLayout::LayoutFragment(MCFragment *F) {
431   uint64_t StartAddress = getSectionAddress(F->getParent());
432
433   // Get the fragment start address.
434   uint64_t Address = StartAddress;
435   MCSectionData::iterator it = F;
436   if (MCFragment *Prev = F->getPrevNode())
437     Address = (StartAddress + getFragmentOffset(Prev) +
438                getFragmentEffectiveSize(Prev));
439
440   ++stats::FragmentLayouts;
441
442   // Compute fragment offset and size.
443   F->Offset = Address - StartAddress;
444   F->EffectiveSize = getAssembler().ComputeFragmentSize(*this, *F, StartAddress,
445                                                         F->Offset);
446
447   // If this is the last fragment in a section, update the next section address.
448   if (!F->getNextNode()) {
449     unsigned NextIndex = F->getParent()->getLayoutOrder() + 1;
450     if (NextIndex != getSectionOrder().size())
451       LayoutSection(getSectionOrder()[NextIndex]);
452   }
453 }
454
455 void MCAsmLayout::LayoutSection(MCSectionData *SD) {
456   unsigned SectionOrderIndex = SD->getLayoutOrder();
457
458   ++stats::SectionLayouts;
459
460   // Compute the section start address.
461   uint64_t StartAddress = 0;
462   if (SectionOrderIndex) {
463     MCSectionData *Prev = getSectionOrder()[SectionOrderIndex - 1];
464     StartAddress = getSectionAddress(Prev) + getSectionAddressSize(Prev);
465   }
466
467   // Honor the section alignment requirements.
468   StartAddress = RoundUpToAlignment(StartAddress, SD->getAlignment());
469
470   // Set the section address.
471   SD->Address = StartAddress;
472 }
473
474 /// WriteFragmentData - Write the \arg F data to the output file.
475 static void WriteFragmentData(const MCAssembler &Asm, const MCAsmLayout &Layout,
476                               const MCFragment &F, MCObjectWriter *OW) {
477   uint64_t Start = OW->getStream().tell();
478   (void) Start;
479
480   ++stats::EmittedFragments;
481
482   // FIXME: Embed in fragments instead?
483   uint64_t FragmentSize = Layout.getFragmentEffectiveSize(&F);
484   switch (F.getKind()) {
485   case MCFragment::FT_Align: {
486     MCAlignFragment &AF = cast<MCAlignFragment>(F);
487     uint64_t Count = FragmentSize / AF.getValueSize();
488
489     assert(AF.getValueSize() && "Invalid virtual align in concrete fragment!");
490
491     // FIXME: This error shouldn't actually occur (the front end should emit
492     // multiple .align directives to enforce the semantics it wants), but is
493     // severe enough that we want to report it. How to handle this?
494     if (Count * AF.getValueSize() != FragmentSize)
495       report_fatal_error("undefined .align directive, value size '" +
496                         Twine(AF.getValueSize()) +
497                         "' is not a divisor of padding size '" +
498                         Twine(FragmentSize) + "'");
499
500     // See if we are aligning with nops, and if so do that first to try to fill
501     // the Count bytes.  Then if that did not fill any bytes or there are any
502     // bytes left to fill use the the Value and ValueSize to fill the rest.
503     // If we are aligning with nops, ask that target to emit the right data.
504     if (AF.hasEmitNops()) {
505       if (!Asm.getBackend().WriteNopData(Count, OW))
506         report_fatal_error("unable to write nop sequence of " +
507                           Twine(Count) + " bytes");
508       break;
509     }
510
511     // Otherwise, write out in multiples of the value size.
512     for (uint64_t i = 0; i != Count; ++i) {
513       switch (AF.getValueSize()) {
514       default:
515         assert(0 && "Invalid size!");
516       case 1: OW->Write8 (uint8_t (AF.getValue())); break;
517       case 2: OW->Write16(uint16_t(AF.getValue())); break;
518       case 4: OW->Write32(uint32_t(AF.getValue())); break;
519       case 8: OW->Write64(uint64_t(AF.getValue())); break;
520       }
521     }
522     break;
523   }
524
525   case MCFragment::FT_Data: {
526     MCDataFragment &DF = cast<MCDataFragment>(F);
527     assert(FragmentSize == DF.getContents().size() && "Invalid size!");
528     OW->WriteBytes(DF.getContents().str());
529     break;
530   }
531
532   case MCFragment::FT_Fill: {
533     MCFillFragment &FF = cast<MCFillFragment>(F);
534
535     assert(FF.getValueSize() && "Invalid virtual align in concrete fragment!");
536
537     for (uint64_t i = 0, e = FF.getSize() / FF.getValueSize(); i != e; ++i) {
538       switch (FF.getValueSize()) {
539       default:
540         assert(0 && "Invalid size!");
541       case 1: OW->Write8 (uint8_t (FF.getValue())); break;
542       case 2: OW->Write16(uint16_t(FF.getValue())); break;
543       case 4: OW->Write32(uint32_t(FF.getValue())); break;
544       case 8: OW->Write64(uint64_t(FF.getValue())); break;
545       }
546     }
547     break;
548   }
549
550   case MCFragment::FT_Inst:
551     llvm_unreachable("unexpected inst fragment after lowering");
552     break;
553
554   case MCFragment::FT_Org: {
555     MCOrgFragment &OF = cast<MCOrgFragment>(F);
556
557     for (uint64_t i = 0, e = FragmentSize; i != e; ++i)
558       OW->Write8(uint8_t(OF.getValue()));
559
560     break;
561   }
562   }
563
564   assert(OW->getStream().tell() - Start == FragmentSize);
565 }
566
567 void MCAssembler::WriteSectionData(const MCSectionData *SD,
568                                    const MCAsmLayout &Layout,
569                                    MCObjectWriter *OW) const {
570   // Ignore virtual sections.
571   if (getBackend().isVirtualSection(SD->getSection())) {
572     assert(Layout.getSectionFileSize(SD) == 0 && "Invalid size for section!");
573
574     // Check that contents are only things legal inside a virtual section.
575     for (MCSectionData::const_iterator it = SD->begin(),
576            ie = SD->end(); it != ie; ++it) {
577       switch (it->getKind()) {
578       default:
579         assert(0 && "Invalid fragment in virtual section!");
580       case MCFragment::FT_Align:
581         assert(!cast<MCAlignFragment>(it)->getValueSize() &&
582                "Invalid align in virtual section!");
583         break;
584       case MCFragment::FT_Fill:
585         assert(!cast<MCFillFragment>(it)->getValueSize() &&
586                "Invalid fill in virtual section!");
587         break;
588       }
589     }
590
591     return;
592   }
593
594   uint64_t Start = OW->getStream().tell();
595   (void) Start;
596
597   for (MCSectionData::const_iterator it = SD->begin(),
598          ie = SD->end(); it != ie; ++it)
599     WriteFragmentData(*this, Layout, *it, OW);
600
601   assert(OW->getStream().tell() - Start == Layout.getSectionFileSize(SD));
602 }
603
604 void MCAssembler::Finish() {
605   DEBUG_WITH_TYPE("mc-dump", {
606       llvm::errs() << "assembler backend - pre-layout\n--\n";
607       dump(); });
608
609   // Create the layout object.
610   MCAsmLayout Layout(*this);
611
612   // Insert additional align fragments for concrete sections to explicitly pad
613   // the previous section to match their alignment requirements. This is for
614   // 'gas' compatibility, it shouldn't strictly be necessary.
615   //
616   // FIXME: This may be Mach-O specific.
617   for (unsigned i = 1, e = Layout.getSectionOrder().size(); i < e; ++i) {
618     MCSectionData *SD = Layout.getSectionOrder()[i];
619
620     // Ignore sections without alignment requirements.
621     unsigned Align = SD->getAlignment();
622     if (Align <= 1)
623       continue;
624
625     // Ignore virtual sections, they don't cause file size modifications.
626     if (getBackend().isVirtualSection(SD->getSection()))
627       continue;
628
629     // Otherwise, create a new align fragment at the end of the previous
630     // section.
631     MCAlignFragment *AF = new MCAlignFragment(Align, 0, 1, Align,
632                                               Layout.getSectionOrder()[i - 1]);
633     AF->setOnlyAlignAddress(true);
634   }
635
636   // Create dummy fragments and assign section ordinals.
637   unsigned SectionIndex = 0;
638   for (MCAssembler::iterator it = begin(), ie = end(); it != ie; ++it) {
639     // Create dummy fragments to eliminate any empty sections, this simplifies
640     // layout.
641     if (it->getFragmentList().empty()) {
642       unsigned ValueSize = 1;
643       if (getBackend().isVirtualSection(it->getSection()))
644         ValueSize = 1;
645       new MCFillFragment(0, 1, 0, it);
646     }
647
648     it->setOrdinal(SectionIndex++);
649   }
650
651   // Assign layout order indices to sections and fragments.
652   unsigned FragmentIndex = 0;
653   for (unsigned i = 0, e = Layout.getSectionOrder().size(); i != e; ++i) {
654     MCSectionData *SD = Layout.getSectionOrder()[i];
655     SD->setLayoutOrder(i);
656
657     for (MCSectionData::iterator it2 = SD->begin(),
658            ie2 = SD->end(); it2 != ie2; ++it2)
659       it2->setLayoutOrder(FragmentIndex++);
660   }
661
662   // Layout until everything fits.
663   while (LayoutOnce(Layout))
664     continue;
665
666   DEBUG_WITH_TYPE("mc-dump", {
667       llvm::errs() << "assembler backend - post-relaxation\n--\n";
668       dump(); });
669
670   // Finalize the layout, including fragment lowering.
671   FinishLayout(Layout);
672
673   DEBUG_WITH_TYPE("mc-dump", {
674       llvm::errs() << "assembler backend - final-layout\n--\n";
675       dump(); });
676
677   uint64_t StartOffset = OS.tell();
678   llvm::OwningPtr<MCObjectWriter> Writer(getBackend().createObjectWriter(OS));
679   if (!Writer)
680     report_fatal_error("unable to create object writer!");
681
682   // Allow the object writer a chance to perform post-layout binding (for
683   // example, to set the index fields in the symbol data).
684   Writer->ExecutePostLayoutBinding(*this);
685
686   // Evaluate and apply the fixups, generating relocation entries as necessary.
687   for (MCAssembler::iterator it = begin(), ie = end(); it != ie; ++it) {
688     for (MCSectionData::iterator it2 = it->begin(),
689            ie2 = it->end(); it2 != ie2; ++it2) {
690       MCDataFragment *DF = dyn_cast<MCDataFragment>(it2);
691       if (!DF)
692         continue;
693
694       for (MCDataFragment::fixup_iterator it3 = DF->fixup_begin(),
695              ie3 = DF->fixup_end(); it3 != ie3; ++it3) {
696         MCAsmFixup &Fixup = *it3;
697
698         // Evaluate the fixup.
699         MCValue Target;
700         uint64_t FixedValue;
701         if (!EvaluateFixup(Layout, Fixup, DF, Target, FixedValue)) {
702           // The fixup was unresolved, we need a relocation. Inform the object
703           // writer of the relocation, and give it an opportunity to adjust the
704           // fixup value if need be.
705           Writer->RecordRelocation(*this, Layout, DF, Fixup, Target,FixedValue);
706         }
707
708         getBackend().ApplyFixup(Fixup, *DF, FixedValue);
709       }
710     }
711   }
712
713   // Write the object file.
714   Writer->WriteObject(*this, Layout);
715   OS.flush();
716
717   stats::ObjectBytes += OS.tell() - StartOffset;
718 }
719
720 bool MCAssembler::FixupNeedsRelaxation(const MCAsmFixup &Fixup,
721                                        const MCFragment *DF,
722                                        const MCAsmLayout &Layout) const {
723   if (getRelaxAll())
724     return true;
725
726   // If we cannot resolve the fixup value, it requires relaxation.
727   MCValue Target;
728   uint64_t Value;
729   if (!EvaluateFixup(Layout, Fixup, DF, Target, Value))
730     return true;
731
732   // Otherwise, relax if the value is too big for a (signed) i8.
733   //
734   // FIXME: This is target dependent!
735   return int64_t(Value) != int64_t(int8_t(Value));
736 }
737
738 bool MCAssembler::FragmentNeedsRelaxation(const MCInstFragment *IF,
739                                           const MCAsmLayout &Layout) const {
740   // If this inst doesn't ever need relaxation, ignore it. This occurs when we
741   // are intentionally pushing out inst fragments, or because we relaxed a
742   // previous instruction to one that doesn't need relaxation.
743   if (!getBackend().MayNeedRelaxation(IF->getInst(), IF->getFixups()))
744     return false;
745
746   for (MCInstFragment::const_fixup_iterator it = IF->fixup_begin(),
747          ie = IF->fixup_end(); it != ie; ++it)
748     if (FixupNeedsRelaxation(*it, IF, Layout))
749       return true;
750
751   return false;
752 }
753
754 bool MCAssembler::LayoutOnce(MCAsmLayout &Layout) {
755   ++stats::RelaxationSteps;
756
757   // Layout the sections in order.
758   Layout.LayoutFile();
759
760   // Scan for fragments that need relaxation.
761   bool WasRelaxed = false;
762   for (iterator it = begin(), ie = end(); it != ie; ++it) {
763     MCSectionData &SD = *it;
764
765     for (MCSectionData::iterator it2 = SD.begin(),
766            ie2 = SD.end(); it2 != ie2; ++it2) {
767       // Check if this is an instruction fragment that needs relaxation.
768       MCInstFragment *IF = dyn_cast<MCInstFragment>(it2);
769       if (!IF || !FragmentNeedsRelaxation(IF, Layout))
770         continue;
771
772       ++stats::RelaxedInstructions;
773
774       // FIXME-PERF: We could immediately lower out instructions if we can tell
775       // they are fully resolved, to avoid retesting on later passes.
776
777       // Relax the fragment.
778
779       MCInst Relaxed;
780       getBackend().RelaxInstruction(IF, Relaxed);
781
782       // Encode the new instruction.
783       //
784       // FIXME-PERF: If it matters, we could let the target do this. It can
785       // probably do so more efficiently in many cases.
786       SmallVector<MCFixup, 4> Fixups;
787       SmallString<256> Code;
788       raw_svector_ostream VecOS(Code);
789       getEmitter().EncodeInstruction(Relaxed, VecOS, Fixups);
790       VecOS.flush();
791
792       // Update the instruction fragment.
793       int SlideAmount = Code.size() - IF->getInstSize();
794       IF->setInst(Relaxed);
795       IF->getCode() = Code;
796       IF->getFixups().clear();
797       for (unsigned i = 0, e = Fixups.size(); i != e; ++i) {
798         MCFixup &F = Fixups[i];
799         IF->getFixups().push_back(MCAsmFixup(F.getOffset(), *F.getValue(),
800                                              F.getKind()));
801       }
802
803       // Update the layout, and remember that we relaxed. If we are relaxing
804       // everything, we can skip this step since nothing will depend on updating
805       // the values.
806       if (!getRelaxAll())
807         Layout.UpdateForSlide(IF, SlideAmount);
808       WasRelaxed = true;
809     }
810   }
811
812   return WasRelaxed;
813 }
814
815 void MCAssembler::FinishLayout(MCAsmLayout &Layout) {
816   // Lower out any instruction fragments, to simplify the fixup application and
817   // output.
818   //
819   // FIXME-PERF: We don't have to do this, but the assumption is that it is
820   // cheap (we will mostly end up eliminating fragments and appending on to data
821   // fragments), so the extra complexity downstream isn't worth it. Evaluate
822   // this assumption.
823   for (iterator it = begin(), ie = end(); it != ie; ++it) {
824     MCSectionData &SD = *it;
825
826     for (MCSectionData::iterator it2 = SD.begin(),
827            ie2 = SD.end(); it2 != ie2; ++it2) {
828       MCInstFragment *IF = dyn_cast<MCInstFragment>(it2);
829       if (!IF)
830         continue;
831
832       // Create a new data fragment for the instruction.
833       //
834       // FIXME-PERF: Reuse previous data fragment if possible.
835       MCDataFragment *DF = new MCDataFragment();
836       SD.getFragmentList().insert(it2, DF);
837
838       // Update the data fragments layout data.
839       DF->setParent(IF->getParent());
840       DF->setAtom(IF->getAtom());
841       DF->setLayoutOrder(IF->getLayoutOrder());
842       Layout.FragmentReplaced(IF, DF);
843
844       // Copy in the data and the fixups.
845       DF->getContents().append(IF->getCode().begin(), IF->getCode().end());
846       for (unsigned i = 0, e = IF->getFixups().size(); i != e; ++i)
847         DF->getFixups().push_back(IF->getFixups()[i]);
848
849       // Delete the instruction fragment and update the iterator.
850       SD.getFragmentList().erase(IF);
851       it2 = DF;
852     }
853   }
854 }
855
856 // Debugging methods
857
858 namespace llvm {
859
860 raw_ostream &operator<<(raw_ostream &OS, const MCAsmFixup &AF) {
861   OS << "<MCAsmFixup" << " Offset:" << AF.Offset << " Value:" << *AF.Value
862      << " Kind:" << AF.Kind << ">";
863   return OS;
864 }
865
866 }
867
868 void MCFragment::dump() {
869   raw_ostream &OS = llvm::errs();
870
871   OS << "<MCFragment " << (void*) this << " LayoutOrder:" << LayoutOrder
872      << " Offset:" << Offset << " EffectiveSize:" << EffectiveSize << ">";
873 }
874
875 void MCAlignFragment::dump() {
876   raw_ostream &OS = llvm::errs();
877
878   OS << "<MCAlignFragment ";
879   this->MCFragment::dump();
880   if (hasEmitNops())
881     OS << " (emit nops)";
882   if (hasOnlyAlignAddress())
883     OS << " (only align section)";
884   OS << "\n       ";
885   OS << " Alignment:" << getAlignment()
886      << " Value:" << getValue() << " ValueSize:" << getValueSize()
887      << " MaxBytesToEmit:" << getMaxBytesToEmit() << ">";
888 }
889
890 void MCDataFragment::dump() {
891   raw_ostream &OS = llvm::errs();
892
893   OS << "<MCDataFragment ";
894   this->MCFragment::dump();
895   OS << "\n       ";
896   OS << " Contents:[";
897   for (unsigned i = 0, e = getContents().size(); i != e; ++i) {
898     if (i) OS << ",";
899     OS << hexdigit((Contents[i] >> 4) & 0xF) << hexdigit(Contents[i] & 0xF);
900   }
901   OS << "] (" << getContents().size() << " bytes)";
902
903   if (!getFixups().empty()) {
904     OS << ",\n       ";
905     OS << " Fixups:[";
906     for (fixup_iterator it = fixup_begin(), ie = fixup_end(); it != ie; ++it) {
907       if (it != fixup_begin()) OS << ",\n                ";
908       OS << *it;
909     }
910     OS << "]";
911   }
912
913   OS << ">";
914 }
915
916 void MCFillFragment::dump() {
917   raw_ostream &OS = llvm::errs();
918
919   OS << "<MCFillFragment ";
920   this->MCFragment::dump();
921   OS << "\n       ";
922   OS << " Value:" << getValue() << " ValueSize:" << getValueSize()
923      << " Size:" << getSize() << ">";
924 }
925
926 void MCInstFragment::dump() {
927   raw_ostream &OS = llvm::errs();
928
929   OS << "<MCInstFragment ";
930   this->MCFragment::dump();
931   OS << "\n       ";
932   OS << " Inst:";
933   getInst().dump_pretty(OS);
934   OS << ">";
935 }
936
937 void MCOrgFragment::dump() {
938   raw_ostream &OS = llvm::errs();
939
940   OS << "<MCOrgFragment ";
941   this->MCFragment::dump();
942   OS << "\n       ";
943   OS << " Offset:" << getOffset() << " Value:" << getValue() << ">";
944 }
945
946 void MCSectionData::dump() {
947   raw_ostream &OS = llvm::errs();
948
949   OS << "<MCSectionData";
950   OS << " Alignment:" << getAlignment() << " Address:" << Address
951      << " Fragments:[\n      ";
952   for (iterator it = begin(), ie = end(); it != ie; ++it) {
953     if (it != begin()) OS << ",\n      ";
954     it->dump();
955   }
956   OS << "]>";
957 }
958
959 void MCSymbolData::dump() {
960   raw_ostream &OS = llvm::errs();
961
962   OS << "<MCSymbolData Symbol:" << getSymbol()
963      << " Fragment:" << getFragment() << " Offset:" << getOffset()
964      << " Flags:" << getFlags() << " Index:" << getIndex();
965   if (isCommon())
966     OS << " (common, size:" << getCommonSize()
967        << " align: " << getCommonAlignment() << ")";
968   if (isExternal())
969     OS << " (external)";
970   if (isPrivateExtern())
971     OS << " (private extern)";
972   OS << ">";
973 }
974
975 void MCAssembler::dump() {
976   raw_ostream &OS = llvm::errs();
977
978   OS << "<MCAssembler\n";
979   OS << "  Sections:[\n    ";
980   for (iterator it = begin(), ie = end(); it != ie; ++it) {
981     if (it != begin()) OS << ",\n    ";
982     it->dump();
983   }
984   OS << "],\n";
985   OS << "  Symbols:[";
986
987   for (symbol_iterator it = symbol_begin(), ie = symbol_end(); it != ie; ++it) {
988     if (it != symbol_begin()) OS << ",\n           ";
989     it->dump();
990   }
991   OS << "]>\n";
992 }