[X86] Add intrinsics for reading and writing to the flags register
[oota-llvm.git] / test / CodeGen / X86 / stack-align.ll
index eafb7c29fa0aaa3a562d8d307a1948fa19ef1423..0cff95f266a9ec8e3febcc761bf8307a4451b86f 100644 (file)
@@ -1,7 +1,10 @@
 ; RUN: llc < %s -relocation-model=static -mcpu=yonah | FileCheck %s
 
-; The double argument is at 4(esp) which is 16-byte aligned, allowing us to
-; fold the load into the andpd.
+; The double argument is at 4(esp) which is 16-byte aligned, but we
+; are required to read in extra bytes of memory in order to fold the
+; load. Bad Things may happen when reading/processing undefined bytes,
+; so don't fold the load.
+; PR22371 / http://reviews.llvm.org/D7474
 
 target datalayout = "e-p:32:32:32-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:32:64-f32:32:32-f64:32:64-v64:64:64-v128:128:128-a0:0:64-f80:128:128"
 target triple = "i686-apple-darwin8"
@@ -9,28 +12,37 @@ target triple = "i686-apple-darwin8"
 
 define void @test({ double, double }* byval  %z, double* %P) nounwind {
 entry:
-       %tmp3 = load double* @G, align 16               ; <double> [#uses=1]
+       %tmp3 = load double, double* @G, align 16               ; <double> [#uses=1]
        %tmp4 = tail call double @fabs( double %tmp3 ) readnone ; <double> [#uses=1]
         store volatile double %tmp4, double* %P
-       %tmp = getelementptr { double, double }* %z, i32 0, i32 0               ; <double*> [#uses=1]
-       %tmp1 = load volatile double* %tmp, align 8             ; <double> [#uses=1]
+       %tmp = getelementptr { double, double }, { double, double }* %z, i32 0, i32 0           ; <double*> [#uses=1]
+       %tmp1 = load volatile double, double* %tmp, align 8             ; <double> [#uses=1]
        %tmp2 = tail call double @fabs( double %tmp1 ) readnone ; <double> [#uses=1]
-    ; CHECK: andpd{{.*}}4(%esp), %xmm
        %tmp6 = fadd double %tmp4, %tmp2                ; <double> [#uses=1]
        store volatile double %tmp6, double* %P, align 8
        ret void
+
+; CHECK-LABEL: test:
+; CHECK:       movsd   {{.*}}G, %xmm{{.*}}
+; CHECK:       andpd   %xmm{{.*}}, %xmm{{.*}}
+; CHECK:       movsd   4(%esp), %xmm{{.*}}
+; CHECK:       andpd   %xmm{{.*}}, %xmm{{.*}}
+
+
 }
 
 define void @test2() alignstack(16) nounwind {
 entry:
-    ; CHECK: andl{{.*}}$-16, %esp
+; CHECK-LABEL: test2:
+; CHECK: andl{{.*}}$-16, %esp
     ret void
 }
 
 ; Use a call to force a spill.
 define <2 x double> @test3(<2 x double> %x, <2 x double> %y) alignstack(32) nounwind {
 entry:
-    ; CHECK: andl{{.*}}$-32, %esp
+; CHECK-LABEL: test3:
+; CHECK: andl{{.*}}$-32, %esp
     call void @test2()
     %A = fmul <2 x double> %x, %y
     ret <2 x double> %A