CodeGen: extend f16 conversions to permit types > float.
[oota-llvm.git] / test / CodeGen / R600 / indirect-private-64.ll
1 ; RUN: llc -march=r600 -mcpu=SI -mattr=-promote-alloca -verify-machineinstrs < %s | FileCheck -check-prefix=SI-ALLOCA -check-prefix=SI %s
2 ; RUN: llc -march=r600 -mcpu=SI -mattr=+promote-alloca -verify-machineinstrs < %s | FileCheck -check-prefix=SI-PROMOTE -check-prefix=SI %s
3
4
5 declare void @llvm.AMDGPU.barrier.local() noduplicate nounwind
6
7 ; SI-LABEL: @private_access_f64_alloca:
8
9 ; SI-ALLOCA: V_MOVRELD_B32_e32
10 ; SI-ALLOCA: V_MOVRELD_B32_e32
11 ; SI-ALLOCA: V_MOVRELS_B32_e32
12 ; SI-ALLOCA: V_MOVRELS_B32_e32
13
14 ; SI-PROMOTE: DS_WRITE_B64
15 ; SI-PROMOTE: DS_READ_B64
16 define void @private_access_f64_alloca(double addrspace(1)* noalias %out, double addrspace(1)* noalias %in, i32 %b) nounwind {
17   %val = load double addrspace(1)* %in, align 8
18   %array = alloca double, i32 16, align 8
19   %ptr = getelementptr double* %array, i32 %b
20   store double %val, double* %ptr, align 8
21   call void @llvm.AMDGPU.barrier.local() noduplicate nounwind
22   %result = load double* %ptr, align 8
23   store double %result, double addrspace(1)* %out, align 8
24   ret void
25 }
26
27 ; SI-LABEL: @private_access_v2f64_alloca:
28
29 ; SI-ALLOCA: V_MOVRELD_B32_e32
30 ; SI-ALLOCA: V_MOVRELD_B32_e32
31 ; SI-ALLOCA: V_MOVRELS_B32_e32
32 ; SI-ALLOCA: V_MOVRELS_B32_e32
33
34 ; SI-PROMOTE: DS_WRITE_B32
35 ; SI-PROMOTE: DS_WRITE_B32
36 ; SI-PROMOTE: DS_WRITE_B32
37 ; SI-PROMOTE: DS_WRITE_B32
38 ; SI-PROMOTE: DS_READ_B32
39 ; SI-PROMOTE: DS_READ_B32
40 ; SI-PROMOTE: DS_READ_B32
41 ; SI-PROMOTE: DS_READ_B32
42 define void @private_access_v2f64_alloca(<2 x double> addrspace(1)* noalias %out, <2 x double> addrspace(1)* noalias %in, i32 %b) nounwind {
43   %val = load <2 x double> addrspace(1)* %in, align 16
44   %array = alloca <2 x double>, i32 16, align 16
45   %ptr = getelementptr <2 x double>* %array, i32 %b
46   store <2 x double> %val, <2 x double>* %ptr, align 16
47   call void @llvm.AMDGPU.barrier.local() noduplicate nounwind
48   %result = load <2 x double>* %ptr, align 16
49   store <2 x double> %result, <2 x double> addrspace(1)* %out, align 16
50   ret void
51 }
52
53 ; SI-LABEL: @private_access_i64_alloca:
54
55 ; SI-ALLOCA: V_MOVRELD_B32_e32
56 ; SI-ALLOCA: V_MOVRELD_B32_e32
57 ; SI-ALLOCA: V_MOVRELS_B32_e32
58 ; SI-ALLOCA: V_MOVRELS_B32_e32
59
60 ; SI-PROMOTE: DS_WRITE_B64
61 ; SI-PROMOTE: DS_READ_B64
62 define void @private_access_i64_alloca(i64 addrspace(1)* noalias %out, i64 addrspace(1)* noalias %in, i32 %b) nounwind {
63   %val = load i64 addrspace(1)* %in, align 8
64   %array = alloca i64, i32 16, align 8
65   %ptr = getelementptr i64* %array, i32 %b
66   store i64 %val, i64* %ptr, align 8
67   call void @llvm.AMDGPU.barrier.local() noduplicate nounwind
68   %result = load i64* %ptr, align 8
69   store i64 %result, i64 addrspace(1)* %out, align 8
70   ret void
71 }
72
73 ; SI-LABEL: @private_access_v2i64_alloca:
74
75 ; SI-ALLOCA: V_MOVRELD_B32_e32
76 ; SI-ALLOCA: V_MOVRELD_B32_e32
77 ; SI-ALLOCA: V_MOVRELD_B32_e32
78 ; SI-ALLOCA: V_MOVRELD_B32_e32
79 ; SI-ALLOCA: V_MOVRELS_B32_e32
80 ; SI-ALLOCA: V_MOVRELS_B32_e32
81 ; SI-ALLOCA: V_MOVRELS_B32_e32
82 ; SI-ALLOCA: V_MOVRELS_B32_e32
83
84 ; SI-PROMOTE: DS_WRITE_B32
85 ; SI-PROMOTE: DS_WRITE_B32
86 ; SI-PROMOTE: DS_WRITE_B32
87 ; SI-PROMOTE: DS_WRITE_B32
88 ; SI-PROMOTE: DS_READ_B32
89 ; SI-PROMOTE: DS_READ_B32
90 ; SI-PROMOTE: DS_READ_B32
91 ; SI-PROMOTE: DS_READ_B32
92 define void @private_access_v2i64_alloca(<2 x i64> addrspace(1)* noalias %out, <2 x i64> addrspace(1)* noalias %in, i32 %b) nounwind {
93   %val = load <2 x i64> addrspace(1)* %in, align 16
94   %array = alloca <2 x i64>, i32 16, align 16
95   %ptr = getelementptr <2 x i64>* %array, i32 %b
96   store <2 x i64> %val, <2 x i64>* %ptr, align 16
97   call void @llvm.AMDGPU.barrier.local() noduplicate nounwind
98   %result = load <2 x i64>* %ptr, align 16
99   store <2 x i64> %result, <2 x i64> addrspace(1)* %out, align 16
100   ret void
101 }