Intel OCL built-ins calling conventions now support MacOS 32-bit.
[oota-llvm.git] / test / CodeGen / X86 / avx-intel-ocl.ll
1 ; RUN: llc < %s -mtriple=i686-apple-darwin -mcpu=corei7-avx -mattr=+avx | FileCheck -check-prefix=X32 %s
2 ; RUN: llc < %s -mtriple=i386-pc-win32 -mcpu=corei7-avx -mattr=+avx | FileCheck -check-prefix=X32 %s
3 ; RUN: llc < %s -mtriple=x86_64-win32 -mcpu=corei7-avx -mattr=+avx | FileCheck -check-prefix=WIN64 %s
4 ; RUN: llc < %s -mtriple=x86_64-apple-darwin -mcpu=corei7-avx -mattr=+avx | FileCheck -check-prefix=X64 %s
5
6 declare <16 x float> @func_float16_ptr(<16 x float>, <16 x float> *)
7 declare <16 x float> @func_float16(<16 x float>, <16 x float>)
8 declare i32 @func_int(i32, i32)
9
10 ; WIN64: testf16_inp
11 ; WIN64: vaddps  {{.*}}, {{%ymm[0-1]}}
12 ; WIN64: vaddps  {{.*}}, {{%ymm[0-1]}}
13 ; WIN64: leaq    {{.*}}(%rsp), %rcx
14 ; WIN64: call
15 ; WIN64: ret
16
17 ; X32: testf16_inp
18 ; X32: movl    %eax, (%esp)
19 ; X32: vaddps  {{.*}}, {{%ymm[0-1]}}
20 ; X32: vaddps  {{.*}}, {{%ymm[0-1]}}
21 ; X32: call
22 ; X32: ret
23
24 ; X64: testf16_inp
25 ; X64: vaddps  {{.*}}, {{%ymm[0-1]}}
26 ; X64: vaddps  {{.*}}, {{%ymm[0-1]}}
27 ; X64: leaq    {{.*}}(%rsp), %rdi
28 ; X64: call
29 ; X64: ret
30
31 ;test calling conventions - input parameters
32 define <16 x float> @testf16_inp(<16 x float> %a, <16 x float> %b) nounwind {
33   %y = alloca <16 x float>, align 16
34   %x = fadd <16 x float> %a, %b
35   %1 = call intel_ocl_bicc <16 x float> @func_float16_ptr(<16 x float> %x, <16 x float>* %y) 
36   %2 = load <16 x float>* %y, align 16
37   %3 = fadd <16 x float> %2, %1
38   ret <16 x float> %3
39 }
40
41 ;test calling conventions - preserved registers
42
43 ; preserved ymm6-ymm15
44 ; WIN64: testf16_regs
45 ; WIN64: call
46 ; WIN64: vaddps  {{%ymm[6-7]}}, %ymm0, %ymm0
47 ; WIN64: vaddps  {{%ymm[6-7]}}, %ymm1, %ymm1
48 ; WIN64: ret
49
50 ; preserved ymm8-ymm15
51 ; X64: testf16_regs
52 ; X64: call
53 ; X64: vaddps  {{%ymm[8-9]}}, %ymm0, %ymm0
54 ; X64: vaddps  {{%ymm[8-9]}}, %ymm1, %ymm1
55 ; X64: ret
56
57 define <16 x float> @testf16_regs(<16 x float> %a, <16 x float> %b) nounwind {
58   %y = alloca <16 x float>, align 16
59   %x = fadd <16 x float> %a, %b
60   %1 = call intel_ocl_bicc <16 x float> @func_float16_ptr(<16 x float> %x, <16 x float>* %y) 
61   %2 = load <16 x float>* %y, align 16
62   %3 = fadd <16 x float> %1, %b
63   %4 = fadd <16 x float> %2, %3
64   ret <16 x float> %4
65 }
66
67 ; test calling conventions - prolog and epilog
68 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
69 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
70 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
71 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
72 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
73 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
74 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
75 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
76 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
77 ; WIN64: vmovaps {{%ymm([6-9]|1[0-5])}}, {{.*(%rsp).*}}     # 32-byte Spill
78 ; WIN64: call
79 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
80 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
81 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
82 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
83 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
84 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
85 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
86 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
87 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
88 ; WIN64: vmovaps {{.*(%rsp).*}}, {{%ymm([6-9]|1[0-5])}}     # 32-byte Reload
89
90 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
91 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
92 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
93 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
94 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
95 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
96 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
97 ; X64: vmovaps {{%ymm([8-9]|1[0-5])}}, {{.*}}(%rbp)  ## 32-byte Spill
98 ; X64: call
99 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
100 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
101 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
102 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
103 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
104 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
105 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
106 ; X64: vmovaps {{.*}}(%rbp), {{%ymm([8-9]|1[0-5])}} ## 32-byte Reload
107 define intel_ocl_bicc <16 x float> @test_prolog_epilog(<16 x float> %a, <16 x float> %b) nounwind {
108    %c = call <16 x float> @func_float16(<16 x float> %a, <16 x float> %b)
109    ret <16 x float> %c
110 }
111
112 ; test functions with integer parameters
113 ; pass parameters on stack for 32-bit platform
114 ; X32: movl {{.*}}, 4(%esp)
115 ; X32: movl {{.*}}, (%esp)
116 ; X32: call
117 ; X32: addl {{.*}}, %eax
118
119 ; pass parameters in registers for 64-bit platform
120 ; X64: leal {{.*}}, %edi
121 ; X64: movl {{.*}}, %esi
122 ; X64: call
123 ; X64: addl {{.*}}, %eax
124 define i32 @test_int(i32 %a, i32 %b) nounwind {
125     %c1 = add i32 %a, %b
126         %c2 = call intel_ocl_bicc i32 @func_int(i32 %c1, i32 %a)
127     %c = add i32 %c2, %b
128         ret i32 %c
129 }