Add some missing entries to X86RegisterInfo::foldMemoryOperand(). e.g.
[oota-llvm.git] / lib / Target / X86 / X86RegisterInfo.cpp
index 730988c9b09ee6377a29200eeefc6acb4542924e..0805b60ba02ab77fb3670e76440df16957483721 100644 (file)
@@ -24,8 +24,8 @@
 #include "llvm/Target/TargetFrameInfo.h"
 #include "llvm/Target/TargetMachine.h"
 #include "llvm/Target/TargetOptions.h"
-#include "Support/CommandLine.h"
-#include "Support/STLExtras.h"
+#include "llvm/Support/CommandLine.h"
+#include "llvm/ADT/STLExtras.h"
 #include <iostream>
 
 using namespace llvm;
@@ -44,46 +44,91 @@ namespace {
 X86RegisterInfo::X86RegisterInfo()
   : X86GenRegisterInfo(X86::ADJCALLSTACKDOWN, X86::ADJCALLSTACKUP) {}
 
-static unsigned getIdx(const TargetRegisterClass *RC) {
-  switch (RC->getSize()) {
-  default: assert(0 && "Invalid data size!");
-  case 1:  return 0;
-  case 2:  return 1;
-  case 4:  return 2;
-  case 10: return 3;
-  }
-}
-
 void X86RegisterInfo::storeRegToStackSlot(MachineBasicBlock &MBB,
                                           MachineBasicBlock::iterator MI,
-                                          unsigned SrcReg, int FrameIdx) const {
-  static const unsigned Opcode[] =
-    { X86::MOV8mr, X86::MOV16mr, X86::MOV32mr, X86::FSTP80m };
-  const TargetRegisterClass *RC = getRegClass(SrcReg);
-  MachineInstr *I = addFrameReference(BuildMI(Opcode[getIdx(RC)], 5),
-                                      FrameIdx).addReg(SrcReg);
-  MBB.insert(MI, I);
+                                          unsigned SrcReg, int FrameIdx,
+                                          const TargetRegisterClass *RC) const {
+  unsigned Opc;
+  if (RC == &X86::R32RegClass) {
+    Opc = X86::MOV32mr;
+  } else if (RC == &X86::R8RegClass) {
+    Opc = X86::MOV8mr;
+  } else if (RC == &X86::R16RegClass) {
+    Opc = X86::MOV16mr;
+  } else if (RC == &X86::RFPRegClass || RC == &X86::RSTRegClass) {
+    Opc = X86::FpST64m;
+  } else if (RC == &X86::FR32RegClass) {
+    Opc = X86::MOVSSmr;
+  } else if (RC == &X86::FR64RegClass) {
+    Opc = X86::MOVSDmr;
+  } else if (RC == &X86::V4F32RegClass) {
+    Opc = X86::MOVAPSmr;
+  } else if (RC == &X86::V2F64RegClass) {
+    Opc = X86::MOVAPDmr;
+  } else {
+    assert(0 && "Unknown regclass");
+    abort();
+  }
+  addFrameReference(BuildMI(MBB, MI, Opc, 5), FrameIdx).addReg(SrcReg);
 }
 
 void X86RegisterInfo::loadRegFromStackSlot(MachineBasicBlock &MBB,
                                            MachineBasicBlock::iterator MI,
-                                           unsigned DestReg, int FrameIdx)const{
-  static const unsigned Opcode[] =
-    { X86::MOV8rm, X86::MOV16rm, X86::MOV32rm, X86::FLD80m };
-  const TargetRegisterClass *RC = getRegClass(DestReg);
-  unsigned OC = Opcode[getIdx(RC)];
-  MBB.insert(MI, addFrameReference(BuildMI(OC, 4, DestReg), FrameIdx));
+                                           unsigned DestReg, int FrameIdx,
+                                           const TargetRegisterClass *RC) const{
+  unsigned Opc;
+  if (RC == &X86::R32RegClass) {
+    Opc = X86::MOV32rm;
+  } else if (RC == &X86::R8RegClass) {
+    Opc = X86::MOV8rm;
+  } else if (RC == &X86::R16RegClass) {
+    Opc = X86::MOV16rm;
+  } else if (RC == &X86::RFPRegClass || RC == &X86::RSTRegClass) {
+    Opc = X86::FpLD64m;
+  } else if (RC == &X86::FR32RegClass) {
+    Opc = X86::MOVSSrm;
+  } else if (RC == &X86::FR64RegClass) {
+    Opc = X86::MOVSDrm;
+  } else if (RC == &X86::V4F32RegClass) {
+    Opc = X86::MOVAPSrm;
+  } else if (RC == &X86::V2F64RegClass) {
+    Opc = X86::MOVAPDrm;
+  } else {
+    assert(0 && "Unknown regclass");
+    abort();
+  }
+  addFrameReference(BuildMI(MBB, MI, Opc, 4, DestReg), FrameIdx);
 }
 
 void X86RegisterInfo::copyRegToReg(MachineBasicBlock &MBB,
                                    MachineBasicBlock::iterator MI,
                                    unsigned DestReg, unsigned SrcReg,
                                    const TargetRegisterClass *RC) const {
-  static const unsigned Opcode[] =
-    { X86::MOV8rr, X86::MOV16rr, X86::MOV32rr, X86::FpMOV };
-  MBB.insert(MI, BuildMI(Opcode[getIdx(RC)],1,DestReg).addReg(SrcReg));
+  unsigned Opc;
+  if (RC == &X86::R32RegClass) {
+    Opc = X86::MOV32rr;
+  } else if (RC == &X86::R8RegClass) {
+    Opc = X86::MOV8rr;
+  } else if (RC == &X86::R16RegClass) {
+    Opc = X86::MOV16rr;
+  } else if (RC == &X86::RFPRegClass || RC == &X86::RSTRegClass) {
+    Opc = X86::FpMOV;
+  } else if (RC == &X86::FR32RegClass) {
+    Opc = X86::FsMOVAPSrr;
+  } else if (RC == &X86::FR64RegClass) {
+    Opc = X86::FsMOVAPDrr;
+  } else if (RC == &X86::V4F32RegClass) {
+    Opc = X86::MOVAPSrr;
+  } else if (RC == &X86::V2F64RegClass) {
+    Opc = X86::MOVAPDrr;
+  } else {
+    assert(0 && "Unknown regclass");
+    abort();
+  }
+  BuildMI(MBB, MI, Opc, 1, DestReg).addReg(SrcReg);
 }
 
+
 static MachineInstr *MakeMInst(unsigned Opcode, unsigned FrameIndex,
                                MachineInstr *MI) {
   return addFrameReference(BuildMI(Opcode, 4), FrameIndex);
@@ -109,7 +154,8 @@ static MachineInstr *MakeMIInst(unsigned Opcode, unsigned FrameIndex,
       .addZImm(MI->getOperand(1).getImmedValue());
   else if (MI->getOperand(1).isGlobalAddress())
     return addFrameReference(BuildMI(Opcode, 5), FrameIndex)
-      .addGlobalAddress(MI->getOperand(1).getGlobal());
+      .addGlobalAddress(MI->getOperand(1).getGlobal(),
+                        false, MI->getOperand(1).getOffset());
   assert(0 && "Unknown operand for MakeMI!");
   return 0;
 }
@@ -151,6 +197,9 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::MUL8r:     return MakeMInst( X86::MUL8m ,  FrameIndex, MI);
     case X86::MUL16r:    return MakeMInst( X86::MUL16m,  FrameIndex, MI);
     case X86::MUL32r:    return MakeMInst( X86::MUL32m,  FrameIndex, MI);
+    case X86::IMUL8r:    return MakeMInst( X86::IMUL8m , FrameIndex, MI);
+    case X86::IMUL16r:   return MakeMInst( X86::IMUL16m, FrameIndex, MI);
+    case X86::IMUL32r:   return MakeMInst( X86::IMUL32m, FrameIndex, MI);
     case X86::DIV8r:     return MakeMInst( X86::DIV8m ,  FrameIndex, MI);
     case X86::DIV16r:    return MakeMInst( X86::DIV16m,  FrameIndex, MI);
     case X86::DIV32r:    return MakeMInst( X86::DIV32m,  FrameIndex, MI);
@@ -172,37 +221,49 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::ADD8rr:    return MakeMRInst(X86::ADD8mr , FrameIndex, MI);
     case X86::ADD16rr:   return MakeMRInst(X86::ADD16mr, FrameIndex, MI);
     case X86::ADD32rr:   return MakeMRInst(X86::ADD32mr, FrameIndex, MI);
-    case X86::ADC32rr:   return MakeMRInst(X86::ADC32mr, FrameIndex, MI);
-    case X86::ADC32ri:   return MakeMIInst(X86::ADC32mi, FrameIndex, MI);
     case X86::ADD8ri:    return MakeMIInst(X86::ADD8mi , FrameIndex, MI);
     case X86::ADD16ri:   return MakeMIInst(X86::ADD16mi, FrameIndex, MI);
     case X86::ADD32ri:   return MakeMIInst(X86::ADD32mi, FrameIndex, MI);
+    case X86::ADD16ri8:  return MakeMIInst(X86::ADD16mi8,FrameIndex, MI);
+    case X86::ADD32ri8:  return MakeMIInst(X86::ADD32mi8,FrameIndex, MI);
+    case X86::ADC32rr:   return MakeMRInst(X86::ADC32mr, FrameIndex, MI);
+    case X86::ADC32ri:   return MakeMIInst(X86::ADC32mi, FrameIndex, MI);
+    case X86::ADC32ri8:  return MakeMIInst(X86::ADC32mi8,FrameIndex, MI);
     case X86::SUB8rr:    return MakeMRInst(X86::SUB8mr , FrameIndex, MI);
     case X86::SUB16rr:   return MakeMRInst(X86::SUB16mr, FrameIndex, MI);
     case X86::SUB32rr:   return MakeMRInst(X86::SUB32mr, FrameIndex, MI);
-    case X86::SBB32rr:   return MakeMRInst(X86::SBB32mr, FrameIndex, MI);
-    case X86::SBB32ri:   return MakeMIInst(X86::SBB32mi, FrameIndex, MI);
     case X86::SUB8ri:    return MakeMIInst(X86::SUB8mi , FrameIndex, MI);
     case X86::SUB16ri:   return MakeMIInst(X86::SUB16mi, FrameIndex, MI);
     case X86::SUB32ri:   return MakeMIInst(X86::SUB32mi, FrameIndex, MI);
+    case X86::SUB16ri8:  return MakeMIInst(X86::SUB16mi8,FrameIndex, MI);
+    case X86::SUB32ri8:  return MakeMIInst(X86::SUB32mi8,FrameIndex, MI);
+    case X86::SBB32rr:   return MakeMRInst(X86::SBB32mr, FrameIndex, MI);
+    case X86::SBB32ri:   return MakeMIInst(X86::SBB32mi, FrameIndex, MI);
+    case X86::SBB32ri8:  return MakeMIInst(X86::SBB32mi8,FrameIndex, MI);
     case X86::AND8rr:    return MakeMRInst(X86::AND8mr , FrameIndex, MI);
     case X86::AND16rr:   return MakeMRInst(X86::AND16mr, FrameIndex, MI);
     case X86::AND32rr:   return MakeMRInst(X86::AND32mr, FrameIndex, MI);
     case X86::AND8ri:    return MakeMIInst(X86::AND8mi , FrameIndex, MI);
     case X86::AND16ri:   return MakeMIInst(X86::AND16mi, FrameIndex, MI);
     case X86::AND32ri:   return MakeMIInst(X86::AND32mi, FrameIndex, MI);
+    case X86::AND16ri8:  return MakeMIInst(X86::AND16mi8,FrameIndex, MI);
+    case X86::AND32ri8:  return MakeMIInst(X86::AND32mi8,FrameIndex, MI);
     case X86::OR8rr:     return MakeMRInst(X86::OR8mr ,  FrameIndex, MI);
     case X86::OR16rr:    return MakeMRInst(X86::OR16mr,  FrameIndex, MI);
     case X86::OR32rr:    return MakeMRInst(X86::OR32mr,  FrameIndex, MI);
     case X86::OR8ri:     return MakeMIInst(X86::OR8mi ,  FrameIndex, MI);
     case X86::OR16ri:    return MakeMIInst(X86::OR16mi,  FrameIndex, MI);
     case X86::OR32ri:    return MakeMIInst(X86::OR32mi,  FrameIndex, MI);
+    case X86::OR16ri8:   return MakeMIInst(X86::OR16mi8, FrameIndex, MI);
+    case X86::OR32ri8:   return MakeMIInst(X86::OR32mi8, FrameIndex, MI);
     case X86::XOR8rr:    return MakeMRInst(X86::XOR8mr , FrameIndex, MI);
     case X86::XOR16rr:   return MakeMRInst(X86::XOR16mr, FrameIndex, MI);
     case X86::XOR32rr:   return MakeMRInst(X86::XOR32mr, FrameIndex, MI);
     case X86::XOR8ri:    return MakeMIInst(X86::XOR8mi , FrameIndex, MI);
     case X86::XOR16ri:   return MakeMIInst(X86::XOR16mi, FrameIndex, MI);
     case X86::XOR32ri:   return MakeMIInst(X86::XOR32mi, FrameIndex, MI);
+    case X86::XOR16ri8:  return MakeMIInst(X86::XOR16mi8,FrameIndex, MI);
+    case X86::XOR32ri8:  return MakeMIInst(X86::XOR32mi8,FrameIndex, MI);
     case X86::SHL8rCL:   return MakeMInst( X86::SHL8mCL ,FrameIndex, MI);
     case X86::SHL16rCL:  return MakeMInst( X86::SHL16mCL,FrameIndex, MI);
     case X86::SHL32rCL:  return MakeMInst( X86::SHL32mCL,FrameIndex, MI);
@@ -221,10 +282,26 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::SAR8ri:    return MakeMIInst(X86::SAR8mi , FrameIndex, MI);
     case X86::SAR16ri:   return MakeMIInst(X86::SAR16mi, FrameIndex, MI);
     case X86::SAR32ri:   return MakeMIInst(X86::SAR32mi, FrameIndex, MI);
+    case X86::ROL8rCL:   return MakeMInst( X86::ROL8mCL ,FrameIndex, MI);
+    case X86::ROL16rCL:  return MakeMInst( X86::ROL16mCL,FrameIndex, MI);
+    case X86::ROL32rCL:  return MakeMInst( X86::ROL32mCL,FrameIndex, MI);
+    case X86::ROL8ri:    return MakeMIInst(X86::ROL8mi , FrameIndex, MI);
+    case X86::ROL16ri:   return MakeMIInst(X86::ROL16mi, FrameIndex, MI);
+    case X86::ROL32ri:   return MakeMIInst(X86::ROL32mi, FrameIndex, MI);
+    case X86::ROR8rCL:   return MakeMInst( X86::ROR8mCL ,FrameIndex, MI);
+    case X86::ROR16rCL:  return MakeMInst( X86::ROR16mCL,FrameIndex, MI);
+    case X86::ROR32rCL:  return MakeMInst( X86::ROR32mCL,FrameIndex, MI);
+    case X86::ROR8ri:    return MakeMIInst(X86::ROR8mi , FrameIndex, MI);
+    case X86::ROR16ri:   return MakeMIInst(X86::ROR16mi, FrameIndex, MI);
+    case X86::ROR32ri:   return MakeMIInst(X86::ROR32mi, FrameIndex, MI);
     case X86::SHLD32rrCL:return MakeMRInst( X86::SHLD32mrCL,FrameIndex, MI);
     case X86::SHLD32rri8:return MakeMRIInst(X86::SHLD32mri8,FrameIndex, MI);
     case X86::SHRD32rrCL:return MakeMRInst( X86::SHRD32mrCL,FrameIndex, MI);
     case X86::SHRD32rri8:return MakeMRIInst(X86::SHRD32mri8,FrameIndex, MI);
+    case X86::SHLD16rrCL:return MakeMRInst( X86::SHLD16mrCL,FrameIndex, MI);
+    case X86::SHLD16rri8:return MakeMRIInst(X86::SHLD16mri8,FrameIndex, MI);
+    case X86::SHRD16rrCL:return MakeMRInst( X86::SHRD16mrCL,FrameIndex, MI);
+    case X86::SHRD16rri8:return MakeMRIInst(X86::SHRD16mri8,FrameIndex, MI);
     case X86::SETBr:     return MakeMInst( X86::SETBm,   FrameIndex, MI);
     case X86::SETAEr:    return MakeMInst( X86::SETAEm,  FrameIndex, MI);
     case X86::SETEr:     return MakeMInst( X86::SETEm,   FrameIndex, MI);
@@ -234,6 +311,7 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::SETSr:     return MakeMInst( X86::SETSm,   FrameIndex, MI);
     case X86::SETNSr:    return MakeMInst( X86::SETNSm,  FrameIndex, MI);
     case X86::SETPr:     return MakeMInst( X86::SETPm,   FrameIndex, MI);
+    case X86::SETNPr:    return MakeMInst( X86::SETNPm,  FrameIndex, MI);
     case X86::SETLr:     return MakeMInst( X86::SETLm,   FrameIndex, MI);
     case X86::SETGEr:    return MakeMInst( X86::SETGEm,  FrameIndex, MI);
     case X86::SETLEr:    return MakeMInst( X86::SETLEm,  FrameIndex, MI);
@@ -250,6 +328,19 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::CMP8ri:    return MakeMIInst(X86::CMP8mi , FrameIndex, MI);
     case X86::CMP16ri:   return MakeMIInst(X86::CMP16mi, FrameIndex, MI);
     case X86::CMP32ri:   return MakeMIInst(X86::CMP32mi, FrameIndex, MI);
+    // Alias scalar SSE instructions
+    case X86::FsMOVAPSrr: return MakeMRInst(X86::MOVSSmr, FrameIndex, MI);
+    case X86::FsMOVAPDrr: return MakeMRInst(X86::MOVSDmr, FrameIndex, MI);
+    // Scalar SSE instructions
+    case X86::MOVSSrr:   return MakeMRInst(X86::MOVSSmr, FrameIndex, MI);
+    case X86::MOVSDrr:   return MakeMRInst(X86::MOVSDmr, FrameIndex, MI);
+#if 0
+    // Packed SSE instructions
+    // FIXME: Can't use these until we are spilling XMM registers to
+    // 128-bit locations.
+    case X86::MOVAPSrr:  return MakeMRInst(X86::MOVAPSmr, FrameIndex, MI);
+    case X86::MOVAPDrr:  return MakeMRInst(X86::MOVAPDmr, FrameIndex, MI);
+#endif
     }
   } else if (i == 1) {
     switch(MI->getOpcode()) {
@@ -275,6 +366,10 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::CMOVS32rr: return MakeRMInst(X86::CMOVS32rm , FrameIndex, MI);
     case X86::CMOVNS16rr: return MakeRMInst(X86::CMOVNS16rm , FrameIndex, MI);
     case X86::CMOVNS32rr: return MakeRMInst(X86::CMOVNS32rm , FrameIndex, MI);
+    case X86::CMOVP16rr: return MakeRMInst(X86::CMOVP16rm , FrameIndex, MI);
+    case X86::CMOVP32rr: return MakeRMInst(X86::CMOVP32rm , FrameIndex, MI);
+    case X86::CMOVNP16rr: return MakeRMInst(X86::CMOVNP16rm , FrameIndex, MI);
+    case X86::CMOVNP32rr: return MakeRMInst(X86::CMOVNP32rm , FrameIndex, MI);
     case X86::CMOVL16rr: return MakeRMInst(X86::CMOVL16rm , FrameIndex, MI);
     case X86::CMOVL32rr: return MakeRMInst(X86::CMOVL32rm , FrameIndex, MI);
     case X86::CMOVGE16rr: return MakeRMInst(X86::CMOVGE16rm , FrameIndex, MI);
@@ -307,6 +402,8 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::IMUL32rr:  return MakeRMInst(X86::IMUL32rm,FrameIndex, MI);
     case X86::IMUL16rri: return MakeRMIInst(X86::IMUL16rmi, FrameIndex, MI);
     case X86::IMUL32rri: return MakeRMIInst(X86::IMUL32rmi, FrameIndex, MI);
+    case X86::IMUL16rri8:return MakeRMIInst(X86::IMUL16rmi8, FrameIndex, MI);
+    case X86::IMUL32rri8:return MakeRMIInst(X86::IMUL32rmi8, FrameIndex, MI);
     case X86::CMP8rr:    return MakeRMInst(X86::CMP8rm , FrameIndex, MI);
     case X86::CMP16rr:   return MakeRMInst(X86::CMP16rm, FrameIndex, MI);
     case X86::CMP32rr:   return MakeRMInst(X86::CMP32rm, FrameIndex, MI);
@@ -314,8 +411,49 @@ MachineInstr* X86RegisterInfo::foldMemoryOperand(MachineInstr* MI,
     case X86::MOVSX32rr8:return MakeRMInst(X86::MOVSX32rm8, FrameIndex, MI);
     case X86::MOVSX32rr16:return MakeRMInst(X86::MOVSX32rm16, FrameIndex, MI);
     case X86::MOVZX16rr8:return MakeRMInst(X86::MOVZX16rm8 , FrameIndex, MI);
-    case X86::MOVZX32rr8:  return MakeRMInst(X86::MOVZX32rm8, FrameIndex, MI);
+    case X86::MOVZX32rr8:return MakeRMInst(X86::MOVZX32rm8, FrameIndex, MI);
     case X86::MOVZX32rr16:return MakeRMInst(X86::MOVZX32rm16, FrameIndex, MI);
+    // Alias scalar SSE instructions
+    case X86::FsMOVAPSrr:return MakeRMInst(X86::MOVSSrm, FrameIndex, MI);
+    case X86::FsMOVAPDrr:return MakeRMInst(X86::MOVSDrm, FrameIndex, MI);
+    // Scalar SSE instructions
+    case X86::MOVSSrr:   return MakeRMInst(X86::MOVSSrm, FrameIndex, MI);
+    case X86::MOVSDrr:   return MakeRMInst(X86::MOVSDrm, FrameIndex, MI);
+    case X86::CVTTSS2SIrr:return MakeRMInst(X86::CVTTSS2SIrm, FrameIndex, MI);
+    case X86::CVTTSD2SIrr:return MakeRMInst(X86::CVTTSD2SIrm, FrameIndex, MI);
+    case X86::CVTSS2SDrr:return MakeRMInst(X86::CVTSS2SDrm, FrameIndex, MI);
+    case X86::CVTSD2SSrr:return MakeRMInst(X86::CVTSD2SSrm, FrameIndex, MI);
+    case X86::CVTSI2SSrr:return MakeRMInst(X86::CVTSI2SSrm, FrameIndex, MI);
+    case X86::CVTSI2SDrr:return MakeRMInst(X86::CVTSI2SDrm, FrameIndex, MI);
+    case X86::SQRTSSrr:  return MakeRMInst(X86::SQRTSSrm, FrameIndex, MI);
+    case X86::SQRTSDrr:  return MakeRMInst(X86::SQRTSDrm, FrameIndex, MI);
+    case X86::UCOMISSrr: return MakeRMInst(X86::UCOMISSrm, FrameIndex, MI);
+    case X86::UCOMISDrr: return MakeRMInst(X86::UCOMISDrm, FrameIndex, MI);
+    case X86::ADDSSrr:   return MakeRMInst(X86::ADDSSrm, FrameIndex, MI);
+    case X86::ADDSDrr:   return MakeRMInst(X86::ADDSDrm, FrameIndex, MI);
+    case X86::MULSSrr:   return MakeRMInst(X86::MULSSrm, FrameIndex, MI);
+    case X86::MULSDrr:   return MakeRMInst(X86::MULSDrm, FrameIndex, MI);
+    case X86::DIVSSrr:   return MakeRMInst(X86::DIVSSrm, FrameIndex, MI);
+    case X86::DIVSDrr:   return MakeRMInst(X86::DIVSDrm, FrameIndex, MI);
+    case X86::SUBSSrr:   return MakeRMInst(X86::SUBSSrm, FrameIndex, MI);
+    case X86::SUBSDrr:   return MakeRMInst(X86::SUBSDrm, FrameIndex, MI);
+    case X86::CMPSSrr:   return MakeRMInst(X86::CMPSSrm, FrameIndex, MI);
+    case X86::CMPSDrr:   return MakeRMInst(X86::CMPSDrm, FrameIndex, MI);
+#if 0
+    // Packed SSE instructions
+    // FIXME: Can't use these until we are spilling XMM registers to
+    // 128-bit locations.
+    case X86::ANDPSrr:   return MakeRMInst(X86::ANDPSrm, FrameIndex, MI);
+    case X86::ANDPDrr:   return MakeRMInst(X86::ANDPDrm, FrameIndex, MI);
+    case X86::ORPSrr:    return MakeRMInst(X86::ORPSrm, FrameIndex, MI);
+    case X86::ORPDrr:    return MakeRMInst(X86::ORPDrm, FrameIndex, MI);
+    case X86::XORPSrr:   return MakeRMInst(X86::XORPSrm, FrameIndex, MI);
+    case X86::XORPDrr:   return MakeRMInst(X86::XORPDrm, FrameIndex, MI);
+    case X86::ANDNPSrr:  return MakeRMInst(X86::ANDNPSrm, FrameIndex, MI);
+    case X86::ANDNPDrr:  return MakeRMInst(X86::ANDNPDrm, FrameIndex, MI);
+    case X86::MOVAPSrr:  return MakeRMInst(X86::MOVAPSrm, FrameIndex, MI);
+    case X86::MOVAPDrr:  return MakeRMInst(X86::MOVAPDrm, FrameIndex, MI);
+#endif
     }
   }
   if (PrintFailedFusing)
@@ -351,17 +489,34 @@ eliminateCallFramePseudoInstr(MachineFunction &MF, MachineBasicBlock &MBB,
       unsigned Align = MF.getTarget().getFrameInfo()->getStackAlignment();
       Amount = (Amount+Align-1)/Align*Align;
 
-      MachineInstr *New;
+      MachineInstr *New = 0;
       if (Old->getOpcode() == X86::ADJCALLSTACKDOWN) {
-       New=BuildMI(X86::SUB32ri, 1, X86::ESP, MachineOperand::UseAndDef)
+        New=BuildMI(X86::SUB32ri, 1, X86::ESP, MachineOperand::UseAndDef)
               .addZImm(Amount);
       } else {
-       assert(Old->getOpcode() == X86::ADJCALLSTACKUP);
-       New=BuildMI(X86::ADD32ri, 1, X86::ESP, MachineOperand::UseAndDef)
-              .addZImm(Amount);
+        assert(Old->getOpcode() == X86::ADJCALLSTACKUP);
+        // factor out the amount the callee already popped.
+        unsigned CalleeAmt = Old->getOperand(1).getImmedValue();
+        Amount -= CalleeAmt;
+        if (Amount) {
+          unsigned Opc = Amount < 128 ? X86::ADD32ri8 : X86::ADD32ri;
+          New = BuildMI(Opc, 1, X86::ESP,
+                        MachineOperand::UseAndDef).addZImm(Amount);
+        }
       }
 
       // Replace the pseudo instruction with a new instruction...
+      if (New) MBB.insert(I, New);
+    }
+  } else if (I->getOpcode() == X86::ADJCALLSTACKUP) {
+    // If we are performing frame pointer elimination and if the callee pops
+    // something off the stack pointer, add it back.  We do this until we have
+    // more advanced stack pointer tracking ability.
+    if (unsigned CalleeAmt = I->getOperand(1).getImmedValue()) {
+      unsigned Opc = CalleeAmt < 128 ? X86::SUB32ri8 : X86::SUB32ri;
+      MachineInstr *New =
+        BuildMI(Opc, 1, X86::ESP,
+                MachineOperand::UseAndDef).addZImm(CalleeAmt);
       MBB.insert(I, New);
     }
   }
@@ -420,14 +575,14 @@ void X86RegisterInfo::emitPrologue(MachineFunction &MF) const {
     int EBPOffset = MFI->getObjectOffset(MFI->getObjectIndexBegin())+4;
 
     if (NumBytes) {   // adjust stack pointer: ESP -= numbytes
-      MI= BuildMI(X86::SUB32ri, 1, X86::ESP, MachineOperand::UseAndDef)
-            .addZImm(NumBytes);
+      unsigned Opc = NumBytes < 128 ? X86::SUB32ri8 : X86::SUB32ri;
+      MI = BuildMI(Opc, 1, X86::ESP,MachineOperand::UseAndDef).addImm(NumBytes);
       MBB.insert(MBBI, MI);
     }
 
     // Save EBP into the appropriate stack slot...
     MI = addRegOffset(BuildMI(X86::MOV32mr, 5),    // mov [ESP-<offset>], EBP
-                     X86::ESP, EBPOffset+NumBytes).addReg(X86::EBP);
+                      X86::ESP, EBPOffset+NumBytes).addReg(X86::EBP);
     MBB.insert(MBBI, MI);
 
     // Update EBP with the new base value...
@@ -457,8 +612,8 @@ void X86RegisterInfo::emitPrologue(MachineFunction &MF) const {
 
     if (NumBytes) {
       // adjust stack pointer: ESP -= numbytes
-      MI= BuildMI(X86::SUB32ri, 1, X86::ESP, MachineOperand::UseAndDef)
-            .addZImm(NumBytes);
+      unsigned Opc = NumBytes < 128 ? X86::SUB32ri8 : X86::SUB32ri;
+      MI= BuildMI(Opc, 1, X86::ESP, MachineOperand::UseAndDef).addImm(NumBytes);
       MBB.insert(MBBI, MI);
     }
   }
@@ -468,9 +623,16 @@ void X86RegisterInfo::emitEpilogue(MachineFunction &MF,
                                    MachineBasicBlock &MBB) const {
   const MachineFrameInfo *MFI = MF.getFrameInfo();
   MachineBasicBlock::iterator MBBI = prior(MBB.end());
-  MachineInstr *MI;
-  assert(MBBI->getOpcode() == X86::RET &&
-         "Can only insert epilog into returning blocks");
+
+  switch (MBBI->getOpcode()) {
+  case X86::RET:
+  case X86::RETI:
+  case X86::TAILJMPd:
+  case X86::TAILJMPr:
+  case X86::TAILJMPm: break;  // These are ok
+  default:
+    assert(0 && "Can only insert epilog into returning blocks");
+  }
 
   if (hasFP(MF)) {
     // Get the offset of the stack slot for the EBP register... which is
@@ -478,42 +640,47 @@ void X86RegisterInfo::emitEpilogue(MachineFunction &MF,
     int EBPOffset = MFI->getObjectOffset(MFI->getObjectIndexEnd()-1)+4;
 
     // mov ESP, EBP
-    MI = BuildMI(X86::MOV32rr, 1,X86::ESP).addReg(X86::EBP);
-    MBB.insert(MBBI, MI);
+    BuildMI(MBB, MBBI, X86::MOV32rr, 1,X86::ESP).addReg(X86::EBP);
 
     // pop EBP
-    MI = BuildMI(X86::POP32r, 0, X86::EBP);
-    MBB.insert(MBBI, MI);
+    BuildMI(MBB, MBBI, X86::POP32r, 0, X86::EBP);
   } else {
     // Get the number of bytes allocated from the FrameInfo...
     unsigned NumBytes = MFI->getStackSize();
 
     if (NumBytes) {    // adjust stack pointer back: ESP += numbytes
-      MI =BuildMI(X86::ADD32ri, 1, X86::ESP, MachineOperand::UseAndDef)
-            .addZImm(NumBytes);
-      MBB.insert(MBBI, MI);
+      // If there is an ADD32ri or SUB32ri of ESP immediately before this
+      // instruction, merge the two instructions.
+      if (MBBI != MBB.begin()) {
+        MachineBasicBlock::iterator PI = prior(MBBI);
+        if ((PI->getOpcode() == X86::ADD32ri || 
+             PI->getOpcode() == X86::ADD32ri8) &&
+            PI->getOperand(0).getReg() == X86::ESP) {
+          NumBytes += PI->getOperand(1).getImmedValue();
+          MBB.erase(PI);
+        } else if ((PI->getOpcode() == X86::SUB32ri ||
+                    PI->getOpcode() == X86::SUB32ri8) &&
+                   PI->getOperand(0).getReg() == X86::ESP) {
+          NumBytes -= PI->getOperand(1).getImmedValue();
+          MBB.erase(PI);
+        } else if (PI->getOpcode() == X86::ADJSTACKPTRri) {
+          NumBytes += PI->getOperand(1).getImmedValue();
+          MBB.erase(PI);
+        }
+      }
+
+      if (NumBytes > 0) {
+        unsigned Opc = NumBytes < 128 ? X86::ADD32ri8 : X86::ADD32ri;
+        BuildMI(MBB, MBBI, Opc, 2)
+          .addReg(X86::ESP, MachineOperand::UseAndDef).addZImm(NumBytes);
+      } else if ((int)NumBytes < 0) {
+        unsigned Opc = -NumBytes < 128 ? X86::SUB32ri8 : X86::SUB32ri;
+        BuildMI(MBB, MBBI, Opc, 2)
+          .addReg(X86::ESP, MachineOperand::UseAndDef).addZImm(-NumBytes);
+      }
     }
   }
 }
 
 #include "X86GenRegisterInfo.inc"
 
-const TargetRegisterClass*
-X86RegisterInfo::getRegClassForType(const Type* Ty) const {
-  switch (Ty->getTypeID()) {
-  case Type::LongTyID:
-  case Type::ULongTyID: assert(0 && "Long values can't fit in registers!");
-  default:              assert(0 && "Invalid type to getClass!");
-  case Type::BoolTyID:
-  case Type::SByteTyID:
-  case Type::UByteTyID:   return &R8Instance;
-  case Type::ShortTyID:
-  case Type::UShortTyID:  return &R16Instance;
-  case Type::IntTyID:
-  case Type::UIntTyID:
-  case Type::PointerTyID: return &R32Instance;
-
-  case Type::FloatTyID:
-  case Type::DoubleTyID: return &RFPInstance;
-  }
-}