[x86] eliminate unnecessary shuffling/moves with unary scalar math ops (PR21507)
[oota-llvm.git] / test / CodeGen / X86 / fold-load-unops.ll
index 0b2e6c78211b15837e1cb1b951f0931704767c3c..fcde0218158af092786b6930edc80c66700a79f4 100644 (file)
@@ -1,15 +1,19 @@
-; RUN: llc -mtriple=x86_64-unknown-unknown -mattr=+avx < %s | FileCheck %s
+; RUN: llc -mtriple=x86_64-unknown-unknown -mattr=+sse2 < %s | FileCheck %s --check-prefix=SSE
+; RUN: llc -mtriple=x86_64-unknown-unknown -mattr=+avx < %s | FileCheck %s --check-prefix=AVX
 
 ; Verify that we're folding the load into the math instruction.
 
-; FIXME: The folding should also happen without the avx attribute; 
-; ie, when generating SSE (non-VEX-prefixed) instructions.
-
 define float @rcpss(float* %a) {
-; CHECK-LABEL: rcpss:
-; CHECK:       vrcpss (%rdi), %xmm0, %xmm0
-
-    %ld = load float* %a
+; SSE-LABEL: rcpss:
+; SSE:       # BB#0:
+; SSE-NEXT:    rcpss (%rdi), %xmm0
+; SSE-NEXT:    retq
+;
+; AVX-LABEL: rcpss:
+; AVX:       # BB#0:
+; AVX-NEXT:    vrcpss (%rdi), %xmm0, %xmm0
+; AVX-NEXT:    retq
+    %ld = load float, float* %a
     %ins = insertelement <4 x float> undef, float %ld, i32 0
     %res = tail call <4 x float> @llvm.x86.sse.rcp.ss(<4 x float> %ins)
     %ext = extractelement <4 x float> %res, i32 0
@@ -17,10 +21,16 @@ define float @rcpss(float* %a) {
 }
 
 define float @rsqrtss(float* %a) {
-; CHECK-LABEL: rsqrtss:
-; CHECK:       vrsqrtss (%rdi), %xmm0, %xmm0
-
-    %ld = load float* %a
+; SSE-LABEL: rsqrtss:
+; SSE:       # BB#0:
+; SSE-NEXT:    rsqrtss (%rdi), %xmm0
+; SSE-NEXT:    retq
+;
+; AVX-LABEL: rsqrtss:
+; AVX:       # BB#0:
+; AVX-NEXT:    vrsqrtss (%rdi), %xmm0, %xmm0
+; AVX-NEXT:    retq
+    %ld = load float, float* %a
     %ins = insertelement <4 x float> undef, float %ld, i32 0
     %res = tail call <4 x float> @llvm.x86.sse.rsqrt.ss(<4 x float> %ins)
     %ext = extractelement <4 x float> %res, i32 0
@@ -28,10 +38,16 @@ define float @rsqrtss(float* %a) {
 }
 
 define float @sqrtss(float* %a) {
-; CHECK-LABEL: sqrtss:
-; CHECK:       vsqrtss (%rdi), %xmm0, %xmm0
-
-    %ld = load float* %a
+; SSE-LABEL: sqrtss:
+; SSE:       # BB#0:
+; SSE-NEXT:    sqrtss (%rdi), %xmm0
+; SSE-NEXT:    retq
+;
+; AVX-LABEL: sqrtss:
+; AVX:       # BB#0:
+; AVX-NEXT:    vsqrtss (%rdi), %xmm0, %xmm0
+; AVX-NEXT:    retq
+    %ld = load float, float* %a
     %ins = insertelement <4 x float> undef, float %ld, i32 0
     %res = tail call <4 x float> @llvm.x86.sse.sqrt.ss(<4 x float> %ins)
     %ext = extractelement <4 x float> %res, i32 0
@@ -39,10 +55,16 @@ define float @sqrtss(float* %a) {
 }
 
 define double @sqrtsd(double* %a) {
-; CHECK-LABEL: sqrtsd:
-; CHECK:       vsqrtsd (%rdi), %xmm0, %xmm0
-
-    %ld = load double* %a
+; SSE-LABEL: sqrtsd:
+; SSE:       # BB#0:
+; SSE-NEXT:    sqrtsd (%rdi), %xmm0
+; SSE-NEXT:    retq
+;
+; AVX-LABEL: sqrtsd:
+; AVX:       # BB#0:
+; AVX-NEXT:    vsqrtsd (%rdi), %xmm0, %xmm0
+; AVX-NEXT:    retq
+    %ld = load double, double* %a
     %ins = insertelement <2 x double> undef, double %ld, i32 0
     %res = tail call <2 x double> @llvm.x86.sse2.sqrt.sd(<2 x double> %ins)
     %ext = extractelement <2 x double> %res, i32 0