X86 byval copies no longer always_inline. <rdar://problem/8706628>
[oota-llvm.git] / test / CodeGen / X86 / tailcallbyval64.ll
1 ; RUN: llc < %s -march=x86-64  -tailcallopt  | grep TAILCALL
2 ; Expect 2 rep;movs because of tail call byval lowering.
3 ; RUN: llc < %s -march=x86-64  -tailcallopt  | egrep {rep|memcpy} | wc -l | grep 2
4 ; A sequence of copyto/copyfrom virtual registers is used to deal with byval
5 ; lowering appearing after moving arguments to registers. The following two
6 ; checks verify that the register allocator changes those sequences to direct
7 ; moves to argument register where it can (for registers that are not used in 
8 ; byval lowering - not rsi, not rdi, not rcx).
9 ; Expect argument 4 to be moved directly to register edx.
10 ; RUN: llc < %s -march=x86-64  -tailcallopt  | grep movl | grep {7} | grep edx
11 ; Expect argument 6 to be moved directly to register r8.
12 ; RUN: llc < %s -march=x86-64  -tailcallopt  | grep movl | grep {17} | grep r8
13
14 %struct.s = type { i64, i64, i64, i64, i64, i64, i64, i64,
15                    i64, i64, i64, i64, i64, i64, i64, i64,
16                    i64, i64, i64, i64, i64, i64, i64, i64 }
17
18 declare  fastcc i64 @tailcallee(%struct.s* byval %a, i64 %val, i64 %val2, i64 %val3, i64 %val4, i64 %val5)
19
20
21 define  fastcc i64 @tailcaller(i64 %b, %struct.s* byval %a) {
22 entry:
23         %tmp2 = getelementptr %struct.s* %a, i32 0, i32 1
24         %tmp3 = load i64* %tmp2, align 8
25         %tmp4 = tail call fastcc i64 @tailcallee(%struct.s* %a byval, i64 %tmp3, i64 %b, i64 7, i64 13, i64 17)
26         ret i64 %tmp4
27 }
28
29