Split segmented stacks tests into tests for static- and dynamic-size frames.
[oota-llvm.git] / test / CodeGen / X86 / segmented-stacks.ll
1 ; RUN: llc < %s -mtriple=i686-linux -segmented-stacks -verify-machineinstrs | FileCheck %s -check-prefix=X32
2 ; RUN: llc < %s -mtriple=x86_64-linux  -segmented-stacks -verify-machineinstrs | FileCheck %s -check-prefix=X64
3
4 ; We used to crash with filetype=obj
5 ; RUN: llc < %s -mtriple=i686-linux -segmented-stacks -filetype=obj
6 ; RUN: llc < %s -mtriple=x86_64-linux -segmented-stacks -filetype=obj
7
8 ; Just to prevent the alloca from being optimized away
9 declare void @dummy_use(i32*, i32)
10
11 define void @test_basic() {
12         %mem = alloca i32, i32 10
13         call void @dummy_use (i32* %mem, i32 10)
14         ret void
15
16 ; X32:      test_basic:
17
18 ; X32:      cmpl %gs:48, %esp
19 ; X32-NEXT: ja      .LBB0_2
20
21 ; X32:      pushl $0
22 ; X32-NEXT: pushl $60
23 ; X32-NEXT: calll __morestack
24 ; X32-NEXT: ret 
25
26 ; X64:      test_basic:
27
28 ; X64:      cmpq %fs:112, %rsp
29 ; X64-NEXT: ja      .LBB0_2
30
31 ; X64:      movabsq $40, %r10
32 ; X64-NEXT: movabsq $0, %r11
33 ; X64-NEXT: callq __morestack
34 ; X64-NEXT: ret
35
36 }
37
38 define i32 @test_nested(i32 * nest %closure, i32 %other) {
39        %addend = load i32 * %closure
40        %result = add i32 %other, %addend
41        ret i32 %result
42
43 ; X32:      cmpl %gs:48, %esp
44 ; X32-NEXT: ja      .LBB1_2
45
46 ; X32:      pushl $4
47 ; X32-NEXT: pushl $0
48 ; X32-NEXT: calll __morestack
49 ; X32-NEXT: ret
50
51 ; X64:      cmpq %fs:112, %rsp
52 ; X64-NEXT: ja      .LBB1_2
53
54 ; X64:      movq %r10, %rax
55 ; X64-NEXT: movabsq $0, %r10
56 ; X64-NEXT: movabsq $0, %r11
57 ; X64-NEXT: callq __morestack
58 ; X64-NEXT: ret
59 ; X64-NEXT: movq %rax, %r10
60
61 }
62
63 define void @test_large() {
64         %mem = alloca i32, i32 10000
65         call void @dummy_use (i32* %mem, i32 0)
66         ret void
67
68 ; X32:      leal -40012(%esp), %ecx
69 ; X32-NEXT: cmpl %gs:48, %ecx
70 ; X32-NEXT: ja      .LBB2_2
71
72 ; X32:      pushl $0
73 ; X32-NEXT: pushl $40012
74 ; X32-NEXT: calll __morestack
75 ; X32-NEXT: ret
76
77 ; X64:      leaq -40008(%rsp), %r11
78 ; X64-NEXT: cmpq %fs:112, %r11
79 ; X64-NEXT: ja      .LBB2_2
80
81 ; X64:      movabsq $40008, %r10
82 ; X64-NEXT: movabsq $0, %r11
83 ; X64-NEXT: callq __morestack
84 ; X64-NEXT: ret
85
86 }
87
88 define fastcc void @test_fastcc() {
89         %mem = alloca i32, i32 10
90         call void @dummy_use (i32* %mem, i32 10)
91         ret void
92
93 ; X32:      test_fastcc:
94
95 ; X32:      cmpl %gs:48, %esp
96 ; X32-NEXT: ja      .LBB3_2
97
98 ; X32:      pushl $0
99 ; X32-NEXT: pushl $60
100 ; X32-NEXT: calll __morestack
101 ; X32-NEXT: ret
102
103 ; X64:      test_fastcc:
104
105 ; X64:      cmpq %fs:112, %rsp
106 ; X64-NEXT: ja      .LBB3_2
107
108 ; X64:      movabsq $40, %r10
109 ; X64-NEXT: movabsq $0, %r11
110 ; X64-NEXT: callq __morestack
111 ; X64-NEXT: ret
112
113 }
114
115 define fastcc void @test_fastcc_large() {
116         %mem = alloca i32, i32 10000
117         call void @dummy_use (i32* %mem, i32 0)
118         ret void
119
120 ; X32:      test_fastcc_large:
121
122 ; X32:      leal -40012(%esp), %eax
123 ; X32-NEXT: cmpl %gs:48, %eax
124 ; X32-NEXT: ja      .LBB4_2
125
126 ; X32:      pushl $0
127 ; X32-NEXT: pushl $40012
128 ; X32-NEXT: calll __morestack
129 ; X32-NEXT: ret
130
131 ; X64:      test_fastcc_large:
132
133 ; X64:      leaq -40008(%rsp), %r11
134 ; X64-NEXT: cmpq %fs:112, %r11
135 ; X64-NEXT: ja      .LBB4_2
136
137 ; X64:      movabsq $40008, %r10
138 ; X64-NEXT: movabsq $0, %r11
139 ; X64-NEXT: callq __morestack
140 ; X64-NEXT: ret
141 }