[avx] Add patterns for combining vextractf128 + vmovaps/vmovups/vmobdqu to
[oota-llvm.git] / test / CodeGen / X86 / avx-vextractf128.ll
1 ; RUN: llc < %s -mtriple=x86_64-apple-darwin -mcpu=corei7-avx -mattr=+avx | FileCheck %s
2
3 ; CHECK: @A
4 ; CHECK-NOT: vunpck
5 ; CHECK: vextractf128 $1
6 define <8 x float> @A(<8 x float> %a) nounwind uwtable readnone ssp {
7 entry:
8   %shuffle = shufflevector <8 x float> %a, <8 x float> undef, <8 x i32> <i32 4, i32 5, i32 6, i32 7, i32 8, i32 8, i32 8, i32 8>
9   ret <8 x float> %shuffle
10 }
11
12 ; CHECK: @B
13 ; CHECK-NOT: vunpck
14 ; CHECK: vextractf128 $1
15 define <4 x double> @B(<4 x double> %a) nounwind uwtable readnone ssp {
16 entry:
17   %shuffle = shufflevector <4 x double> %a, <4 x double> undef, <4 x i32> <i32 2, i32 3, i32 4, i32 4>
18   ret <4 x double> %shuffle
19 }
20
21 ; CHECK: @t0
22 ; CHECK-NOT: vextractf128 $0, %ymm0, %xmm0
23 ; CHECK-NOT: vmovaps %xmm0, (%rdi)
24 ; CHECK: vextractf128 $0, %ymm0, (%rdi)
25 define void @t0(float* nocapture %addr, <8 x float> %a) nounwind uwtable ssp {
26 entry:
27   %0 = tail call <4 x float> @llvm.x86.avx.vextractf128.ps.256(<8 x float> %a, i8 0)
28   %1 = bitcast float* %addr to <4 x float>*
29   store <4 x float> %0, <4 x float>* %1, align 16
30   ret void
31 }
32
33 declare <4 x float> @llvm.x86.avx.vextractf128.ps.256(<8 x float>, i8) nounwind readnone
34
35 ; CHECK: @t1
36 ; CHECK-NOT: vextractf128 $0, %ymm0, %xmm0
37 ; CHECK-NOT: vmovups %xmm0, (%rdi)
38 ; CHECK: vextractf128 $0, %ymm0, (%rdi)
39 define void @t1(float* %addr, <8 x float> %a) nounwind uwtable ssp {
40 entry:
41   %0 = tail call <4 x float> @llvm.x86.avx.vextractf128.ps.256(<8 x float> %a, i8 0)
42   %1 = bitcast float* %addr to i8*
43   tail call void @llvm.x86.sse.storeu.ps(i8* %1, <4 x float> %0)
44   ret void
45 }
46
47 declare void @llvm.x86.sse.storeu.ps(i8*, <4 x float>) nounwind
48
49 ; CHECK: @t2
50 ; CHECK-NOT: vextractf128 $0, %ymm0, %xmm0
51 ; CHECK-NOT: vmovaps %xmm0, (%rdi)
52 ; CHECK: vextractf128 $0, %ymm0, (%rdi)
53 define void @t2(double* nocapture %addr, <4 x double> %a) nounwind uwtable ssp {
54 entry:
55   %0 = tail call <2 x double> @llvm.x86.avx.vextractf128.pd.256(<4 x double> %a, i8 0)
56   %1 = bitcast double* %addr to <2 x double>*
57   store <2 x double> %0, <2 x double>* %1, align 16
58   ret void
59 }
60
61 declare <2 x double> @llvm.x86.avx.vextractf128.pd.256(<4 x double>, i8) nounwind readnone
62
63 ; CHECK: @t3
64 ; CHECK-NOT: vextractf128 $0, %ymm0, %xmm0
65 ; CHECK-NOT: vmovups %xmm0, (%rdi)
66 ; CHECK: vextractf128 $0, %ymm0, (%rdi)
67 define void @t3(double* %addr, <4 x double> %a) nounwind uwtable ssp {
68 entry:
69   %0 = tail call <2 x double> @llvm.x86.avx.vextractf128.pd.256(<4 x double> %a, i8 0)
70   %1 = bitcast double* %addr to i8*
71   tail call void @llvm.x86.sse2.storeu.pd(i8* %1, <2 x double> %0)
72   ret void
73 }
74
75 declare void @llvm.x86.sse2.storeu.pd(i8*, <2 x double>) nounwind
76
77 ; CHECK: @t4
78 ; CHECK-NOT: vextractf128 $0, %ymm0, %xmm0
79 ; CHECK-NOT: vmovaps %xmm0, (%rdi)
80 ; CHECK: vextractf128 $0, %ymm0, (%rdi)
81 define void @t4(<2 x i64>* nocapture %addr, <4 x i64> %a) nounwind uwtable ssp {
82 entry:
83   %0 = bitcast <4 x i64> %a to <8 x i32>
84   %1 = tail call <4 x i32> @llvm.x86.avx.vextractf128.si.256(<8 x i32> %0, i8 0)
85   %2 = bitcast <4 x i32> %1 to <2 x i64>
86   store <2 x i64> %2, <2 x i64>* %addr, align 16
87   ret void
88 }
89
90 declare <4 x i32> @llvm.x86.avx.vextractf128.si.256(<8 x i32>, i8) nounwind readnone
91
92 ; CHECK: @t5
93 ; CHECK-NOT: vextractf128 $0, %ymm0, %xmm0
94 ; CHECK-NOT: vmovdqu %xmm0, (%rdi)
95 ; CHECK: vextractf128 $0, %ymm0, (%rdi)
96 define void @t5(<2 x i64>* %addr, <4 x i64> %a) nounwind uwtable ssp {
97 entry:
98   %0 = bitcast <4 x i64> %a to <8 x i32>
99   %1 = tail call <4 x i32> @llvm.x86.avx.vextractf128.si.256(<8 x i32> %0, i8 0)
100   %2 = bitcast <2 x i64>* %addr to i8*
101   %3 = bitcast <4 x i32> %1 to <16 x i8>
102   tail call void @llvm.x86.sse2.storeu.dq(i8* %2, <16 x i8> %3)
103   ret void
104 }
105
106 declare void @llvm.x86.sse2.storeu.dq(i8*, <16 x i8>) nounwind