Don't fold negative offsets into cp / dp accesses to avoid relocation errors.
[oota-llvm.git] / test / CodeGen / XCore / scavenging.ll
1 ; RUN: llc < %s -march=xcore
2 @size = global i32 0            ; <i32*> [#uses=1]
3 @g0 = external global i32               ; <i32*> [#uses=2]
4 @g1 = external global i32               ; <i32*> [#uses=2]
5 @g2 = external global i32               ; <i32*> [#uses=2]
6 @g3 = external global i32               ; <i32*> [#uses=2]
7 @g4 = external global i32               ; <i32*> [#uses=2]
8 @g5 = external global i32               ; <i32*> [#uses=2]
9 @g6 = external global i32               ; <i32*> [#uses=2]
10 @g7 = external global i32               ; <i32*> [#uses=2]
11 @g8 = external global i32               ; <i32*> [#uses=2]
12 @g9 = external global i32               ; <i32*> [#uses=2]
13 @g10 = external global i32              ; <i32*> [#uses=2]
14 @g11 = external global i32              ; <i32*> [#uses=2]
15
16 define void @f() nounwind {
17 entry:
18         %x = alloca [100 x i32], align 4                ; <[100 x i32]*> [#uses=2]
19         %0 = load i32* @size, align 4           ; <i32> [#uses=1]
20         %1 = alloca i32, i32 %0, align 4                ; <i32*> [#uses=1]
21         %2 = volatile load i32* @g0, align 4            ; <i32> [#uses=1]
22         %3 = volatile load i32* @g1, align 4            ; <i32> [#uses=1]
23         %4 = volatile load i32* @g2, align 4            ; <i32> [#uses=1]
24         %5 = volatile load i32* @g3, align 4            ; <i32> [#uses=1]
25         %6 = volatile load i32* @g4, align 4            ; <i32> [#uses=1]
26         %7 = volatile load i32* @g5, align 4            ; <i32> [#uses=1]
27         %8 = volatile load i32* @g6, align 4            ; <i32> [#uses=1]
28         %9 = volatile load i32* @g7, align 4            ; <i32> [#uses=1]
29         %10 = volatile load i32* @g8, align 4           ; <i32> [#uses=1]
30         %11 = volatile load i32* @g9, align 4           ; <i32> [#uses=1]
31         %12 = volatile load i32* @g10, align 4          ; <i32> [#uses=1]
32         %13 = volatile load i32* @g11, align 4          ; <i32> [#uses=2]
33         %14 = getelementptr [100 x i32]* %x, i32 0, i32 50              ; <i32*> [#uses=1]
34         store i32 %13, i32* %14, align 4
35         volatile store i32 %13, i32* @g11, align 4
36         volatile store i32 %12, i32* @g10, align 4
37         volatile store i32 %11, i32* @g9, align 4
38         volatile store i32 %10, i32* @g8, align 4
39         volatile store i32 %9, i32* @g7, align 4
40         volatile store i32 %8, i32* @g6, align 4
41         volatile store i32 %7, i32* @g5, align 4
42         volatile store i32 %6, i32* @g4, align 4
43         volatile store i32 %5, i32* @g3, align 4
44         volatile store i32 %4, i32* @g2, align 4
45         volatile store i32 %3, i32* @g1, align 4
46         volatile store i32 %2, i32* @g0, align 4
47         %x1 = getelementptr [100 x i32]* %x, i32 0, i32 0               ; <i32*> [#uses=1]
48         call void @g(i32* %x1, i32* %1) nounwind
49         ret void
50 }
51
52 declare void @g(i32*, i32*)