Improve test to actually check for a folded load.
authorSanjay Patel <spatel@rotateright.com>
Tue, 3 Feb 2015 15:37:18 +0000 (15:37 +0000)
committerSanjay Patel <spatel@rotateright.com>
Tue, 3 Feb 2015 15:37:18 +0000 (15:37 +0000)
This test was checking for lack of a "movaps" (an aligned load)
rather than a "movups" (an unaligned load). It also included
a store which complicated the checking.

Add specific CPU runs to prevent subtarget feature flag overrides
from inhibiting this optimization.

git-svn-id: https://llvm.org/svn/llvm-project/llvm/trunk@227972 91177308-0d34-0410-b5e6-96231b3b80d8

test/CodeGen/X86/fold-vex.ll

index 6d1b646c21ec2dc55382bfd771786e0bfbe2813c..a0c5e22b1c06f7feb51f646ff74158cdd3791da3 100644 (file)
@@ -1,16 +1,20 @@
+; Use CPU parameters to ensure that a CPU-specific attribute is not overriding the AVX definition.
+
 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mcpu=corei7-avx | FileCheck %s
+; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mcpu=btver2 | FileCheck %s
+; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx | FileCheck %s
+
+; No need to load unaligned operand from memory using an explicit instruction with AVX.
+; The operand should be folded into the AND instr.
 
-;CHECK: @test
-; No need to load from memory. The operand will be loaded as part of the AND instr.
-;CHECK-NOT: vmovaps
-;CHECK: vandps
-;CHECK: ret
+define <4 x i32> @test1(<4 x i32>* %p0, <4 x i32> %in1) nounwind {
+  %in0 = load <4 x i32>* %p0, align 2
+  %a = and <4 x i32> %in0, %in1
+  ret <4 x i32> %a
 
-define void @test1(<8 x i32>* %p0, <8 x i32> %in1) nounwind {
-entry:
-  %in0 = load <8 x i32>* %p0, align 2
-  %a = and <8 x i32> %in0, %in1
-  store <8 x i32> %a, <8 x i32>* undef
-  ret void
+; CHECK-LABEL: @test1
+; CHECK-NOT:   vmovups
+; CHECK:       vandps (%rdi), %xmm0, %xmm0
+; CHECK-NEXT:  ret
 }