[X86][SSE] Added tests for i8/i16 vector shifts
[oota-llvm.git] / test / CodeGen / ARM / vtbl.ll
index 89653b097acb054aefb5b2265cb40d9fc4230c18..e4dd572a41b4d50be3f17d7dd45aa756994d9c82 100644 (file)
@@ -1,99 +1,99 @@
-; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
+; RUN: llc -mtriple=arm-eabi -mattr=+neon %s -o - | FileCheck %s
 
-%struct.__builtin_neon_v8qi2 = type { <8 x i8>, <8 x i8> }
-%struct.__builtin_neon_v8qi3 = type { <8 x i8>,  <8 x i8>, <8 x i8> }
-%struct.__builtin_neon_v8qi4 = type { <8 x i8>,  <8 x i8>,  <8 x i8>, <8 x i8> }
+%struct.__neon_int8x8x2_t = type { <8 x i8>, <8 x i8> }
+%struct.__neon_int8x8x3_t = type { <8 x i8>,  <8 x i8>, <8 x i8> }
+%struct.__neon_int8x8x4_t = type { <8 x i8>,  <8 x i8>,  <8 x i8>, <8 x i8> }
 
 define <8 x i8> @vtbl1(<8 x i8>* %A, <8 x i8>* %B) nounwind {
-;CHECK: vtbl1:
+;CHECK-LABEL: vtbl1:
 ;CHECK: vtbl.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load <8 x i8>* %B
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load <8 x i8>, <8 x i8>* %B
        %tmp3 = call <8 x i8> @llvm.arm.neon.vtbl1(<8 x i8> %tmp1, <8 x i8> %tmp2)
        ret <8 x i8> %tmp3
 }
 
-define <8 x i8> @vtbl2(<8 x i8>* %A, %struct.__builtin_neon_v8qi2* %B) nounwind {
-;CHECK: vtbl2:
+define <8 x i8> @vtbl2(<8 x i8>* %A, %struct.__neon_int8x8x2_t* %B) nounwind {
+;CHECK-LABEL: vtbl2:
 ;CHECK: vtbl.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load %struct.__builtin_neon_v8qi2* %B
-        %tmp3 = extractvalue %struct.__builtin_neon_v8qi2 %tmp2, 0
-        %tmp4 = extractvalue %struct.__builtin_neon_v8qi2 %tmp2, 1
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load %struct.__neon_int8x8x2_t, %struct.__neon_int8x8x2_t* %B
+        %tmp3 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 0
+        %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
        %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4)
        ret <8 x i8> %tmp5
 }
 
-define <8 x i8> @vtbl3(<8 x i8>* %A, %struct.__builtin_neon_v8qi3* %B) nounwind {
-;CHECK: vtbl3:
+define <8 x i8> @vtbl3(<8 x i8>* %A, %struct.__neon_int8x8x3_t* %B) nounwind {
+;CHECK-LABEL: vtbl3:
 ;CHECK: vtbl.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load %struct.__builtin_neon_v8qi3* %B
-        %tmp3 = extractvalue %struct.__builtin_neon_v8qi3 %tmp2, 0
-        %tmp4 = extractvalue %struct.__builtin_neon_v8qi3 %tmp2, 1
-        %tmp5 = extractvalue %struct.__builtin_neon_v8qi3 %tmp2, 2
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load %struct.__neon_int8x8x3_t, %struct.__neon_int8x8x3_t* %B
+        %tmp3 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 0
+        %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1
+        %tmp5 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 2
        %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
        ret <8 x i8> %tmp6
 }
 
-define <8 x i8> @vtbl4(<8 x i8>* %A, %struct.__builtin_neon_v8qi4* %B) nounwind {
-;CHECK: vtbl4:
+define <8 x i8> @vtbl4(<8 x i8>* %A, %struct.__neon_int8x8x4_t* %B) nounwind {
+;CHECK-LABEL: vtbl4:
 ;CHECK: vtbl.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load %struct.__builtin_neon_v8qi4* %B
-        %tmp3 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 0
-        %tmp4 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 1
-        %tmp5 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 2
-        %tmp6 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 3
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load %struct.__neon_int8x8x4_t, %struct.__neon_int8x8x4_t* %B
+        %tmp3 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 0
+        %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1
+        %tmp5 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 2
+        %tmp6 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 3
        %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
        ret <8 x i8> %tmp7
 }
 
 define <8 x i8> @vtbx1(<8 x i8>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind {
-;CHECK: vtbx1:
+;CHECK-LABEL: vtbx1:
 ;CHECK: vtbx.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load <8 x i8>* %B
-       %tmp3 = load <8 x i8>* %C
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load <8 x i8>, <8 x i8>* %B
+       %tmp3 = load <8 x i8>, <8 x i8>* %C
        %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3)
        ret <8 x i8> %tmp4
 }
 
-define <8 x i8> @vtbx2(<8 x i8>* %A, %struct.__builtin_neon_v8qi2* %B, <8 x i8>* %C) nounwind {
-;CHECK: vtbx2:
+define <8 x i8> @vtbx2(<8 x i8>* %A, %struct.__neon_int8x8x2_t* %B, <8 x i8>* %C) nounwind {
+;CHECK-LABEL: vtbx2:
 ;CHECK: vtbx.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load %struct.__builtin_neon_v8qi2* %B
-        %tmp3 = extractvalue %struct.__builtin_neon_v8qi2 %tmp2, 0
-        %tmp4 = extractvalue %struct.__builtin_neon_v8qi2 %tmp2, 1
-       %tmp5 = load <8 x i8>* %C
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load %struct.__neon_int8x8x2_t, %struct.__neon_int8x8x2_t* %B
+        %tmp3 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 0
+        %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
+       %tmp5 = load <8 x i8>, <8 x i8>* %C
        %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
        ret <8 x i8> %tmp6
 }
 
-define <8 x i8> @vtbx3(<8 x i8>* %A, %struct.__builtin_neon_v8qi3* %B, <8 x i8>* %C) nounwind {
-;CHECK: vtbx3:
+define <8 x i8> @vtbx3(<8 x i8>* %A, %struct.__neon_int8x8x3_t* %B, <8 x i8>* %C) nounwind {
+;CHECK-LABEL: vtbx3:
 ;CHECK: vtbx.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load %struct.__builtin_neon_v8qi3* %B
-        %tmp3 = extractvalue %struct.__builtin_neon_v8qi3 %tmp2, 0
-        %tmp4 = extractvalue %struct.__builtin_neon_v8qi3 %tmp2, 1
-        %tmp5 = extractvalue %struct.__builtin_neon_v8qi3 %tmp2, 2
-       %tmp6 = load <8 x i8>* %C
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load %struct.__neon_int8x8x3_t, %struct.__neon_int8x8x3_t* %B
+        %tmp3 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 0
+        %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1
+        %tmp5 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 2
+       %tmp6 = load <8 x i8>, <8 x i8>* %C
        %tmp7 = call <8 x i8> @llvm.arm.neon.vtbx3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
        ret <8 x i8> %tmp7
 }
 
-define <8 x i8> @vtbx4(<8 x i8>* %A, %struct.__builtin_neon_v8qi4* %B, <8 x i8>* %C) nounwind {
-;CHECK: vtbx4:
+define <8 x i8> @vtbx4(<8 x i8>* %A, %struct.__neon_int8x8x4_t* %B, <8 x i8>* %C) nounwind {
+;CHECK-LABEL: vtbx4:
 ;CHECK: vtbx.8
-       %tmp1 = load <8 x i8>* %A
-       %tmp2 = load %struct.__builtin_neon_v8qi4* %B
-        %tmp3 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 0
-        %tmp4 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 1
-        %tmp5 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 2
-        %tmp6 = extractvalue %struct.__builtin_neon_v8qi4 %tmp2, 3
-       %tmp7 = load <8 x i8>* %C
+       %tmp1 = load <8 x i8>, <8 x i8>* %A
+       %tmp2 = load %struct.__neon_int8x8x4_t, %struct.__neon_int8x8x4_t* %B
+        %tmp3 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 0
+        %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1
+        %tmp5 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 2
+        %tmp6 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 3
+       %tmp7 = load <8 x i8>, <8 x i8>* %C
        %tmp8 = call <8 x i8> @llvm.arm.neon.vtbx4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6, <8 x i8> %tmp7)
        ret <8 x i8> %tmp8
 }