[x86] Minimize the parameters to this test for clarity.
[oota-llvm.git] / test / CodeGen / X86 / vector-shuffle-combining.ll
1 ; RUN: llc < %s -mcpu=x86-64 -mattr=+sse2 | FileCheck %s --check-prefix=CHECK-SSE2
2 ;
3 ; Verify that the DAG combiner correctly folds bitwise operations across
4 ; shuffles, nested shuffles with undef, pairs of nested shuffles, and other
5 ; basic and always-safe patterns. Also test that the DAG combiner will combine
6 ; target-specific shuffle instructions where reasonable.
7
8 target triple = "x86_64-unknown-unknown"
9
10 declare <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32>, i8)
11 declare <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16>, i8)
12 declare <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16>, i8)
13
14 define <4 x i32> @combine_pshufd1(<4 x i32> %a) {
15 ; CHECK-SSE2-LABEL: @combine_pshufd1
16 ; CHECK-SSE2:       # BB#0:
17 ; CHECK-SSE2-NEXT:    retq
18   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 27) 
19   %c = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %b, i8 27) 
20   ret <4 x i32> %c
21 }
22
23 define <4 x i32> @combine_pshufd2(<4 x i32> %a) {
24 ; CHECK-SSE2-LABEL: @combine_pshufd2
25 ; CHECK-SSE2:       # BB#0:
26 ; CHECK-SSE2-NEXT:    retq
27   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 27) 
28   %b.cast = bitcast <4 x i32> %b to <8 x i16>
29   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b.cast, i8 -28)
30   %c.cast = bitcast <8 x i16> %c to <4 x i32>
31   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 27) 
32   ret <4 x i32> %d
33 }
34
35 define <4 x i32> @combine_pshufd3(<4 x i32> %a) {
36 ; CHECK-SSE2-LABEL: @combine_pshufd3
37 ; CHECK-SSE2:       # BB#0:
38 ; CHECK-SSE2-NEXT:    retq
39   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 27) 
40   %b.cast = bitcast <4 x i32> %b to <8 x i16>
41   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b.cast, i8 -28)
42   %c.cast = bitcast <8 x i16> %c to <4 x i32>
43   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 27) 
44   ret <4 x i32> %d
45 }
46
47 define <4 x i32> @combine_pshufd4(<4 x i32> %a) {
48 ; CHECK-SSE2-LABEL: @combine_pshufd4
49 ; CHECK-SSE2:       # BB#0:
50 ; CHECK-SSE2-NEXT:    pshufhw {{.*}} # xmm0 = xmm0[0,1,2,3,7,6,5,4]
51 ; CHECK-SSE2-NEXT:    retq
52   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 -31) 
53   %b.cast = bitcast <4 x i32> %b to <8 x i16>
54   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b.cast, i8 27)
55   %c.cast = bitcast <8 x i16> %c to <4 x i32>
56   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 -31) 
57   ret <4 x i32> %d
58 }
59
60 define <4 x i32> @combine_pshufd5(<4 x i32> %a) {
61 ; CHECK-SSE2-LABEL: @combine_pshufd5
62 ; CHECK-SSE2:       # BB#0:
63 ; CHECK-SSE2-NEXT:    pshuflw {{.*}} # xmm0 = xmm0[3,2,1,0,4,5,6,7]
64 ; CHECK-SSE2-NEXT:    retq
65   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 -76) 
66   %b.cast = bitcast <4 x i32> %b to <8 x i16>
67   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b.cast, i8 27)
68   %c.cast = bitcast <8 x i16> %c to <4 x i32>
69   %d = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %c.cast, i8 -76)
70   ret <4 x i32> %d
71 }
72
73 define <4 x i32> @combine_pshufd6(<4 x i32> %a) {
74 ; CHECK-SSE2-LABEL: @combine_pshufd6
75 ; CHECK-SSE2:       # BB#0:
76 ; CHECK-SSE2-NEXT:    pshufd $0
77 ; CHECK-SSE2-NEXT:    retq
78   %b = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %a, i8 0)
79   %c = call <4 x i32> @llvm.x86.sse2.pshuf.d(<4 x i32> %b, i8 8)
80   ret <4 x i32> %c
81 }
82
83 define <8 x i16> @combine_pshuflw1(<8 x i16> %a) {
84 ; CHECK-SSE2-LABEL: @combine_pshuflw1
85 ; CHECK-SSE2:       # BB#0:
86 ; CHECK-SSE2-NEXT:    retq
87   %b = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %a, i8 27) 
88   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b, i8 27) 
89   ret <8 x i16> %c
90 }
91
92 define <8 x i16> @combine_pshuflw2(<8 x i16> %a) {
93 ; CHECK-SSE2-LABEL: @combine_pshuflw2
94 ; CHECK-SSE2:       # BB#0:
95 ; CHECK-SSE2-NEXT:    retq
96   %b = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %a, i8 27)
97   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b, i8 -28) 
98   %d = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %c, i8 27) 
99   ret <8 x i16> %d
100 }
101
102 define <8 x i16> @combine_pshuflw3(<8 x i16> %a) {
103 ; CHECK-SSE2-LABEL: @combine_pshuflw3
104 ; CHECK-SSE2:       # BB#0:
105 ; CHECK-SSE2-NEXT:    pshufhw {{.*}} # xmm0 = xmm0[0,1,2,3,7,6,5,4]
106 ; CHECK-SSE2-NEXT:    retq
107   %b = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %a, i8 27)
108   %c = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %b, i8 27) 
109   %d = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %c, i8 27) 
110   ret <8 x i16> %d
111 }
112
113 define <8 x i16> @combine_pshufhw1(<8 x i16> %a) {
114 ; CHECK-SSE2-LABEL: @combine_pshufhw1
115 ; CHECK-SSE2:       # BB#0:
116 ; CHECK-SSE2-NEXT:    pshuflw {{.*}} # xmm0 = xmm0[3,2,1,0,4,5,6,7]
117 ; CHECK-SSE2-NEXT:    retq
118   %b = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %a, i8 27)
119   %c = call <8 x i16> @llvm.x86.sse2.pshufl.w(<8 x i16> %b, i8 27) 
120   %d = call <8 x i16> @llvm.x86.sse2.pshufh.w(<8 x i16> %c, i8 27) 
121   ret <8 x i16> %d
122 }
123