[WebAssembly] Don't perform the returned-argument optimization on constants.
[oota-llvm.git] / test / CodeGen / ARM / 2009-11-13-VRRewriterCrash.ll
1 ; RUN: llc -mtriple=armv7-eabi -mcpu=cortex-a8 < %s
2 ; PR5412
3 ; rdar://7384107
4
5 %bar = type { %quad, float, float, [3 x %quuz*], [3 x %bar*], [2 x %bar*], [3 x i8], i8 }
6 %baz = type { %bar*, i32 }
7 %foo = type { i8, %quux, %quad, float, [64 x %quuz], [128 x %bar], i32, %baz, %baz }
8 %quad = type { [4 x float] }
9 %quux = type { [4 x %quuz*], [4 x float], i32 }
10 %quuz = type { %quad, %quad }
11
12 define arm_aapcs_vfpcc %bar* @aaa(%foo* nocapture %this, %quuz* %a, %quuz* %b, %quuz* %c, i8 zeroext %forced) {
13 entry:
14   %0 = load %bar*, %bar** undef, align 4                 ; <%bar*> [#uses=2]
15   br i1 false, label %bb85, label %bb
16
17 bb:                                               ; preds = %entry
18   br i1 undef, label %bb3.i, label %bb2.i
19
20 bb2.i:                                            ; preds = %bb
21   br label %bb3.i
22
23 bb3.i:                                            ; preds = %bb2.i, %bb
24   %1 = getelementptr inbounds %quuz, %quuz* %a, i32 0, i32 1, i32 0, i32 0 ; <float*> [#uses=1]
25   %2 = fsub float 0.000000e+00, undef             ; <float> [#uses=1]
26   %3 = getelementptr inbounds %quuz, %quuz* %b, i32 0, i32 1, i32 0, i32 1 ; <float*> [#uses=1]
27   %4 = getelementptr inbounds %quuz, %quuz* %b, i32 0, i32 1, i32 0, i32 2 ; <float*> [#uses=1]
28   %5 = fsub float 0.000000e+00, undef             ; <float> [#uses=1]
29   %6 = getelementptr inbounds %quuz, %quuz* %c, i32 0, i32 1, i32 0, i32 0 ; <float*> [#uses=1]
30   %7 = getelementptr inbounds %quuz, %quuz* %c, i32 0, i32 1, i32 0, i32 1 ; <float*> [#uses=1]
31   %8 = fsub float undef, undef                    ; <float> [#uses=1]
32   %9 = fmul float 0.000000e+00, %8                ; <float> [#uses=1]
33   %10 = fmul float %5, 0.000000e+00               ; <float> [#uses=1]
34   %11 = fsub float %9, %10                        ; <float> [#uses=3]
35   %12 = fmul float %2, 0.000000e+00               ; <float> [#uses=1]
36   %13 = fmul float 0.000000e+00, undef            ; <float> [#uses=1]
37   %14 = fsub float %12, %13                       ; <float> [#uses=2]
38   store float %14, float* undef
39   %15 = getelementptr inbounds %bar, %bar* %0, i32 0, i32 0, i32 0, i32 3 ; <float*> [#uses=1]
40   store float 0.000000e+00, float* %15
41   %16 = fmul float %11, %11                       ; <float> [#uses=1]
42   %17 = fadd float %16, 0.000000e+00              ; <float> [#uses=1]
43   %18 = fadd float %17, undef                     ; <float> [#uses=1]
44   %19 = call arm_aapcs_vfpcc  float @sqrtf(float %18) readnone ; <float> [#uses=2]
45   %20 = fcmp ogt float %19, 0x3F1A36E2E0000000    ; <i1> [#uses=1]
46   %21 = load float, float* %1, align 4                   ; <float> [#uses=2]
47   %22 = load float, float* %3, align 4                   ; <float> [#uses=2]
48   %23 = load float, float* undef, align 4                ; <float> [#uses=2]
49   %24 = load float, float* %4, align 4                   ; <float> [#uses=2]
50   %25 = fsub float %23, %24                       ; <float> [#uses=2]
51   %26 = fmul float 0.000000e+00, %25              ; <float> [#uses=1]
52   %27 = fsub float %26, undef                     ; <float> [#uses=1]
53   %28 = fmul float %14, 0.000000e+00              ; <float> [#uses=1]
54   %29 = fmul float %11, %25                       ; <float> [#uses=1]
55   %30 = fsub float %28, %29                       ; <float> [#uses=1]
56   %31 = fsub float undef, 0.000000e+00            ; <float> [#uses=1]
57   %32 = fmul float %21, %27                       ; <float> [#uses=1]
58   %33 = fmul float undef, %30                     ; <float> [#uses=1]
59   %34 = fadd float %32, %33                       ; <float> [#uses=1]
60   %35 = fmul float %23, %31                       ; <float> [#uses=1]
61   %36 = fadd float %34, %35                       ; <float> [#uses=1]
62   %37 = load float, float* %6, align 4                   ; <float> [#uses=2]
63   %38 = load float, float* %7, align 4                   ; <float> [#uses=2]
64   %39 = fsub float %22, %38                       ; <float> [#uses=2]
65   %40 = load float, float* undef, align 4                ; <float> [#uses=1]
66   %41 = load float, float* null, align 4                 ; <float> [#uses=2]
67   %42 = fmul float %41, undef                     ; <float> [#uses=1]
68   %43 = fmul float undef, %39                     ; <float> [#uses=1]
69   %44 = fsub float %42, %43                       ; <float> [#uses=1]
70   %45 = fmul float undef, %39                     ; <float> [#uses=1]
71   %46 = fmul float %41, 0.000000e+00              ; <float> [#uses=1]
72   %47 = fsub float %45, %46                       ; <float> [#uses=1]
73   %48 = fmul float 0.000000e+00, %44              ; <float> [#uses=1]
74   %49 = fmul float %22, undef                     ; <float> [#uses=1]
75   %50 = fadd float %48, %49                       ; <float> [#uses=1]
76   %51 = fmul float %24, %47                       ; <float> [#uses=1]
77   %52 = fadd float %50, %51                       ; <float> [#uses=1]
78   %53 = fsub float %37, %21                       ; <float> [#uses=2]
79   %54 = fmul float undef, undef                   ; <float> [#uses=1]
80   %55 = fmul float undef, undef                   ; <float> [#uses=1]
81   %56 = fsub float %54, %55                       ; <float> [#uses=1]
82   %57 = fmul float undef, %53                     ; <float> [#uses=1]
83   %58 = load float, float* undef, align 4                ; <float> [#uses=2]
84   %59 = fmul float %58, undef                     ; <float> [#uses=1]
85   %60 = fsub float %57, %59                       ; <float> [#uses=1]
86   %61 = fmul float %58, undef                     ; <float> [#uses=1]
87   %62 = fmul float undef, %53                     ; <float> [#uses=1]
88   %63 = fsub float %61, %62                       ; <float> [#uses=1]
89   %64 = fmul float %37, %56                       ; <float> [#uses=1]
90   %65 = fmul float %38, %60                       ; <float> [#uses=1]
91   %66 = fadd float %64, %65                       ; <float> [#uses=1]
92   %67 = fmul float %40, %63                       ; <float> [#uses=1]
93   %68 = fadd float %66, %67                       ; <float> [#uses=1]
94   %69 = select i1 undef, float %36, float %52     ; <float> [#uses=1]
95   %70 = select i1 undef, float %69, float %68     ; <float> [#uses=1]
96   %iftmp.164.0 = select i1 %20, float %19, float 1.000000e+00 ; <float> [#uses=1]
97   %71 = fdiv float %70, %iftmp.164.0              ; <float> [#uses=1]
98   store float %71, float* null, align 4
99   %72 = icmp eq %bar* null, %0                    ; <i1> [#uses=1]
100   br i1 %72, label %bb4.i97, label %ccc.exit98
101
102 bb4.i97:                                          ; preds = %bb3.i
103   %73 = load %bar*, %bar** undef, align 4                ; <%bar*> [#uses=0]
104   br label %ccc.exit98
105
106 ccc.exit98:                                       ; preds = %bb4.i97, %bb3.i
107   ret %bar* null
108
109 bb85:                                             ; preds = %entry
110   ret %bar* null
111 }
112
113 declare arm_aapcs_vfpcc float @sqrtf(float) readnone