[x86] Clean up a bunch of vector shuffle tests with my script. Notably,
[oota-llvm.git] / test / CodeGen / X86 / byval2.ll
index 0b6dfc9e90c20b169553813a3163724d3111a7b7..c5187db6de4bc9287c314758fcfbd043cedd4ad6 100644 (file)
@@ -1,5 +1,28 @@
-; RUN: llc < %s -march=x86-64 | egrep {rep.movsq|memcpy} | count 2
-; RUN: llc < %s -march=x86    | egrep {rep.movsl|memcpy} | count 2
+; RUN: llc < %s -mtriple=x86_64-linux -mattr=-avx | FileCheck %s -check-prefix=X64
+; X64-NOT:     movsq
+; X64:     rep
+; X64-NOT:     rep
+; X64:     movsq
+; X64-NOT:     movsq
+; X64:     rep
+; X64-NOT:     rep
+; X64:     movsq
+; X64-NOT:     rep
+; X64-NOT:     movsq
+
+; Win64 has not supported byval yet.
+
+; RUN: llc < %s -march=x86 -mattr=-avx | FileCheck %s -check-prefix=X32
+; X32-NOT:     movsl
+; X32:     rep
+; X32-NOT:     rep
+; X32:     movsl
+; X32-NOT:     movsl
+; X32:     rep
+; X32-NOT:     rep
+; X32:     movsl
+; X32-NOT:     rep
+; X32-NOT:     movsl
 
 %struct.s = type { i64, i64, i64, i64, i64, i64, i64, i64,
                    i64, i64, i64, i64, i64, i64, i64, i64,
@@ -14,8 +37,8 @@ entry:
        store i64 %b, i64* %tmp2, align 16
        %tmp4 = getelementptr %struct.s* %d, i32 0, i32 2
        store i64 %c, i64* %tmp4, align 16
-       call void @f( %struct.s* %d byval)
-       call void @f( %struct.s* %d byval)
+       call void @f( %struct.s*byval %d )
+       call void @f( %struct.s*byval %d )
        ret void
 }