[x86] Clean up a bunch of vector shuffle tests with my script. Notably,
[oota-llvm.git] / test / CodeGen / X86 / stack-align.ll
index 793c0267124c13294d8c5d4b71a3b8c0ad3ab703..eafb7c29fa0aaa3a562d8d307a1948fa19ef1423 100644 (file)
@@ -1,4 +1,4 @@
-; RUN: llc < %s -relocation-model=static -realign-stack=1 -mcpu=yonah | FileCheck %s
+; RUN: llc < %s -relocation-model=static -mcpu=yonah | FileCheck %s
 
 ; The double argument is at 4(esp) which is 16-byte aligned, allowing us to
 ; fold the load into the andpd.
@@ -10,14 +10,14 @@ target triple = "i686-apple-darwin8"
 define void @test({ double, double }* byval  %z, double* %P) nounwind {
 entry:
        %tmp3 = load double* @G, align 16               ; <double> [#uses=1]
-       %tmp4 = tail call double @fabs( double %tmp3 )          ; <double> [#uses=1]
-        volatile store double %tmp4, double* %P
+       %tmp4 = tail call double @fabs( double %tmp3 ) readnone ; <double> [#uses=1]
+        store volatile double %tmp4, double* %P
        %tmp = getelementptr { double, double }* %z, i32 0, i32 0               ; <double*> [#uses=1]
-       %tmp1 = volatile load double* %tmp, align 8             ; <double> [#uses=1]
-       %tmp2 = tail call double @fabs( double %tmp1 )          ; <double> [#uses=1]
+       %tmp1 = load volatile double* %tmp, align 8             ; <double> [#uses=1]
+       %tmp2 = tail call double @fabs( double %tmp1 ) readnone ; <double> [#uses=1]
     ; CHECK: andpd{{.*}}4(%esp), %xmm
        %tmp6 = fadd double %tmp4, %tmp2                ; <double> [#uses=1]
-       volatile store double %tmp6, double* %P, align 8
+       store volatile double %tmp6, double* %P, align 8
        ret void
 }
 
@@ -45,7 +45,7 @@ entry:
   %0 = ptrtoint [2048 x i8]* %buffer to i32
   %and = and i32 %0, -16
   ret i32 %and
-; CHECK: test4:
+; CHECK-LABEL: test4:
 ; CHECK-NOT: and
 ; CHECK: ret
 }