Fix a broadcast related regression on the vector shuffle lowering.
[oota-llvm.git] / test / CodeGen / X86 / stack-align.ll
index f6c13ec0adf72d781c3b684eab5dbe489f12fdc6..eafb7c29fa0aaa3a562d8d307a1948fa19ef1423 100644 (file)
@@ -1,4 +1,4 @@
-; RUN: llc < %s -relocation-model=static -realign-stack=1 -mcpu=yonah | FileCheck %s
+; RUN: llc < %s -relocation-model=static -mcpu=yonah | FileCheck %s
 
 ; The double argument is at 4(esp) which is 16-byte aligned, allowing us to
 ; fold the load into the andpd.
@@ -10,11 +10,11 @@ target triple = "i686-apple-darwin8"
 define void @test({ double, double }* byval  %z, double* %P) nounwind {
 entry:
        %tmp3 = load double* @G, align 16               ; <double> [#uses=1]
-       %tmp4 = tail call double @fabs( double %tmp3 )          ; <double> [#uses=1]
+       %tmp4 = tail call double @fabs( double %tmp3 ) readnone ; <double> [#uses=1]
         store volatile double %tmp4, double* %P
        %tmp = getelementptr { double, double }* %z, i32 0, i32 0               ; <double*> [#uses=1]
        %tmp1 = load volatile double* %tmp, align 8             ; <double> [#uses=1]
-       %tmp2 = tail call double @fabs( double %tmp1 )          ; <double> [#uses=1]
+       %tmp2 = tail call double @fabs( double %tmp1 ) readnone ; <double> [#uses=1]
     ; CHECK: andpd{{.*}}4(%esp), %xmm
        %tmp6 = fadd double %tmp4, %tmp2                ; <double> [#uses=1]
        store volatile double %tmp6, double* %P, align 8
@@ -45,7 +45,7 @@ entry:
   %0 = ptrtoint [2048 x i8]* %buffer to i32
   %and = and i32 %0, -16
   ret i32 %and
-; CHECK: test4:
+; CHECK-LABEL: test4:
 ; CHECK-NOT: and
 ; CHECK: ret
 }