[x86] Teach the target combine step to aggressively fold pshufd insturcions.
[oota-llvm.git] / test / CodeGen / X86 / vector-shuffle-combining.ll
1 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mcpu=x86-64 -x86-experimental-vector-shuffle-lowering | FileCheck %s --check-prefix=CHECK-SSE2
2
3 target datalayout = "e-m:e-i64:64-f80:128-n8:16:32:64-S128"
4 target triple = "x86_64-unknown-unknown"
5
6 declare <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32>, i8)
7 declare <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16>, i8)
8 declare <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16>, i8)
9
10 define <4 x i32> @combine_pshufd1(<4 x i32> %a) {
11 ; CHECK-SSE2-LABEL: @combine_pshufd1
12 ; CHECK-SSE2:       # BB#0:
13 ; CHECK-SSE2-NEXT:    retq
14   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 27) 
15   %c = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %b, i8 27) 
16   ret <4 x i32> %c
17 }
18
19 define <4 x i32> @combine_pshufd2(<4 x i32> %a) {
20 ; CHECK-SSE2-LABEL: @combine_pshufd2
21 ; CHECK-SSE2:       # BB#0:
22 ; CHECK-SSE2-NEXT:    retq
23   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 27) 
24   %b.cast = bitcast <4 x i32> %b to <8 x i16>
25   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b.cast, i8 -28)
26   %c.cast = bitcast <8 x i16> %c to <4 x i32>
27   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 27) 
28   ret <4 x i32> %d
29 }
30
31 define <4 x i32> @combine_pshufd3(<4 x i32> %a) {
32 ; CHECK-SSE2-LABEL: @combine_pshufd3
33 ; CHECK-SSE2:       # BB#0:
34 ; CHECK-SSE2-NEXT:    retq
35   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 27) 
36   %b.cast = bitcast <4 x i32> %b to <8 x i16>
37   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b.cast, i8 -28)
38   %c.cast = bitcast <8 x i16> %c to <4 x i32>
39   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 27) 
40   ret <4 x i32> %d
41 }
42
43 define <4 x i32> @combine_pshufd4(<4 x i32> %a) {
44 ; CHECK-SSE2-LABEL: @combine_pshufd4
45 ; CHECK-SSE2:       # BB#0:
46 ; CHECK-SSE2-NEXT:    pshufhw {{.*}} # xmm0 = xmm0[0,1,2,3,7,6,5,4]
47 ; CHECK-SSE2-NEXT:    retq
48   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 -31) 
49   %b.cast = bitcast <4 x i32> %b to <8 x i16>
50   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b.cast, i8 27)
51   %c.cast = bitcast <8 x i16> %c to <4 x i32>
52   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 -31) 
53   ret <4 x i32> %d
54 }
55
56 define <4 x i32> @combine_pshufd5(<4 x i32> %a) {
57 ; CHECK-SSE2-LABEL: @combine_pshufd5
58 ; CHECK-SSE2:       # BB#0:
59 ; CHECK-SSE2-NEXT:    pshuflw {{.*}} # xmm0 = xmm0[3,2,1,0,4,5,6,7]
60 ; CHECK-SSE2-NEXT:    retq
61   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 -76) 
62   %b.cast = bitcast <4 x i32> %b to <8 x i16>
63   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b.cast, i8 27)
64   %c.cast = bitcast <8 x i16> %c to <4 x i32>
65   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 -76)
66   ret <4 x i32> %d
67 }
68
69 define <8 x i16> @combine_pshuflw1(<8 x i16> %a) {
70 ; CHECK-SSE2-LABEL: @combine_pshuflw1
71 ; CHECK-SSE2:       # BB#0:
72 ; CHECK-SSE2-NEXT:    retq
73   %b = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %a, i8 27) 
74   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b, i8 27) 
75   ret <8 x i16> %c
76 }
77
78 define <8 x i16> @combine_pshuflw2(<8 x i16> %a) {
79 ; CHECK-SSE2-LABEL: @combine_pshuflw2
80 ; CHECK-SSE2:       # BB#0:
81 ; CHECK-SSE2-NEXT:    retq
82   %b = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %a, i8 27)
83   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b, i8 -28) 
84   %d = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %c, i8 27) 
85   ret <8 x i16> %d
86 }
87
88 define <8 x i16> @combine_pshuflw3(<8 x i16> %a) {
89 ; CHECK-SSE2-LABEL: @combine_pshuflw3
90 ; CHECK-SSE2:       # BB#0:
91 ; CHECK-SSE2-NEXT:    pshufhw {{.*}} # xmm0 = xmm0[0,1,2,3,7,6,5,4]
92 ; CHECK-SSE2-NEXT:    retq
93   %b = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %a, i8 27)
94   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b, i8 27) 
95   %d = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %c, i8 27) 
96   ret <8 x i16> %d
97 }
98
99 define <8 x i16> @combine_pshufhw1(<8 x i16> %a) {
100 ; CHECK-SSE2-LABEL: @combine_pshufhw1
101 ; CHECK-SSE2:       # BB#0:
102 ; CHECK-SSE2-NEXT:    pshuflw {{.*}} # xmm0 = xmm0[3,2,1,0,4,5,6,7]
103 ; CHECK-SSE2-NEXT:    retq
104   %b = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %a, i8 27)
105   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b, i8 27) 
106   %d = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %c, i8 27) 
107   ret <8 x i16> %d
108 }
109