Revert "Disable codegen prepare critical edge splitting. Machine instruction passes...
[oota-llvm.git] / test / CodeGen / X86 / lsr-reuse.ll
1 ; RUN: llc < %s -march=x86-64 -O3 -asm-verbose=false | FileCheck %s
2 target datalayout = "e-p:64:64:64"
3 target triple = "x86_64-unknown-unknown"
4
5 ; Full strength reduction reduces register pressure from 5 to 4 here.
6 ; Instruction selection should use the FLAGS value from the dec for
7 ; the branch. Scheduling should push the adds upwards.
8
9 ; CHECK: full_me_0:
10 ; CHECK: movsd   (%rsi), %xmm0
11 ; CHECK: mulsd   (%rdx), %xmm0
12 ; CHECK: movsd   %xmm0, (%rdi)
13 ; CHECK: addq    $8, %rsi
14 ; CHECK: addq    $8, %rdx
15 ; CHECK: addq    $8, %rdi
16 ; CHECK: decq    %rcx
17 ; CHECK: jne
18
19 define void @full_me_0(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
20 entry:
21   %t0 = icmp sgt i64 %n, 0
22   br i1 %t0, label %loop, label %return
23
24 loop:
25   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
26   %Ai = getelementptr inbounds double* %A, i64 %i
27   %Bi = getelementptr inbounds double* %B, i64 %i
28   %Ci = getelementptr inbounds double* %C, i64 %i
29   %t1 = load double* %Bi
30   %t2 = load double* %Ci
31   %m = fmul double %t1, %t2
32   store double %m, double* %Ai
33   %i.next = add nsw i64 %i, 1
34   %exitcond = icmp eq i64 %i.next, %n
35   br i1 %exitcond, label %return, label %loop
36
37 return:
38   ret void
39 }
40
41 ; Mostly-full strength reduction means we do full strength reduction on all
42 ; except for the offsets.
43 ;
44 ; Given a choice between constant offsets -2048 and 2048, choose the negative
45 ; value, because at boundary conditions it has a smaller encoding.
46 ; TODO: That's an over-general heuristic. It would be better for the target
47 ; to indicate what the encoding cost would be. Then using a 2048 offset
48 ; would be better on x86-64, since the start value would be 0 instead of
49 ; 2048.
50
51 ; CHECK: mostly_full_me_0:
52 ; CHECK: movsd   -2048(%rsi), %xmm0
53 ; CHECK: mulsd   -2048(%rdx), %xmm0
54 ; CHECK: movsd   %xmm0, -2048(%rdi)
55 ; CHECK: movsd   (%rsi), %xmm0
56 ; CHECK: divsd   (%rdx), %xmm0
57 ; CHECK: movsd   %xmm0, (%rdi)
58 ; CHECK: addq    $8, %rsi
59 ; CHECK: addq    $8, %rdx
60 ; CHECK: addq    $8, %rdi
61 ; CHECK: decq    %rcx
62 ; CHECK: jne
63
64 define void @mostly_full_me_0(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
65 entry:
66   %t0 = icmp sgt i64 %n, 0
67   br i1 %t0, label %loop, label %return
68
69 loop:
70   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
71   %Ai = getelementptr inbounds double* %A, i64 %i
72   %Bi = getelementptr inbounds double* %B, i64 %i
73   %Ci = getelementptr inbounds double* %C, i64 %i
74   %t1 = load double* %Bi
75   %t2 = load double* %Ci
76   %m = fmul double %t1, %t2
77   store double %m, double* %Ai
78   %j = add i64 %i, 256
79   %Aj = getelementptr inbounds double* %A, i64 %j
80   %Bj = getelementptr inbounds double* %B, i64 %j
81   %Cj = getelementptr inbounds double* %C, i64 %j
82   %t3 = load double* %Bj
83   %t4 = load double* %Cj
84   %o = fdiv double %t3, %t4
85   store double %o, double* %Aj
86   %i.next = add nsw i64 %i, 1
87   %exitcond = icmp eq i64 %i.next, %n
88   br i1 %exitcond, label %return, label %loop
89
90 return:
91   ret void
92 }
93
94 ; A minor variation on mostly_full_me_0.
95 ; Prefer to start the indvar at 0.
96
97 ; CHECK: mostly_full_me_1:
98 ; CHECK: movsd   (%rsi), %xmm0
99 ; CHECK: mulsd   (%rdx), %xmm0
100 ; CHECK: movsd   %xmm0, (%rdi)
101 ; CHECK: movsd   -2048(%rsi), %xmm0
102 ; CHECK: divsd   -2048(%rdx), %xmm0
103 ; CHECK: movsd   %xmm0, -2048(%rdi)
104 ; CHECK: addq    $8, %rsi
105 ; CHECK: addq    $8, %rdx
106 ; CHECK: addq    $8, %rdi
107 ; CHECK: decq    %rcx
108 ; CHECK: jne
109
110 define void @mostly_full_me_1(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
111 entry:
112   %t0 = icmp sgt i64 %n, 0
113   br i1 %t0, label %loop, label %return
114
115 loop:
116   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
117   %Ai = getelementptr inbounds double* %A, i64 %i
118   %Bi = getelementptr inbounds double* %B, i64 %i
119   %Ci = getelementptr inbounds double* %C, i64 %i
120   %t1 = load double* %Bi
121   %t2 = load double* %Ci
122   %m = fmul double %t1, %t2
123   store double %m, double* %Ai
124   %j = sub i64 %i, 256
125   %Aj = getelementptr inbounds double* %A, i64 %j
126   %Bj = getelementptr inbounds double* %B, i64 %j
127   %Cj = getelementptr inbounds double* %C, i64 %j
128   %t3 = load double* %Bj
129   %t4 = load double* %Cj
130   %o = fdiv double %t3, %t4
131   store double %o, double* %Aj
132   %i.next = add nsw i64 %i, 1
133   %exitcond = icmp eq i64 %i.next, %n
134   br i1 %exitcond, label %return, label %loop
135
136 return:
137   ret void
138 }
139
140 ; A slightly less minor variation on mostly_full_me_0.
141
142 ; CHECK: mostly_full_me_2:
143 ; CHECK: movsd   (%rsi), %xmm0
144 ; CHECK: mulsd   (%rdx), %xmm0
145 ; CHECK: movsd   %xmm0, (%rdi)
146 ; CHECK: movsd   -4096(%rsi), %xmm0
147 ; CHECK: divsd   -4096(%rdx), %xmm0
148 ; CHECK: movsd   %xmm0, -4096(%rdi)
149 ; CHECK: addq    $8, %rsi
150 ; CHECK: addq    $8, %rdx
151 ; CHECK: addq    $8, %rdi
152 ; CHECK: decq    %rcx
153 ; CHECK: jne
154
155 define void @mostly_full_me_2(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
156 entry:
157   %t0 = icmp sgt i64 %n, 0
158   br i1 %t0, label %loop, label %return
159
160 loop:
161   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
162   %k = add i64 %i, 256
163   %Ak = getelementptr inbounds double* %A, i64 %k
164   %Bk = getelementptr inbounds double* %B, i64 %k
165   %Ck = getelementptr inbounds double* %C, i64 %k
166   %t1 = load double* %Bk
167   %t2 = load double* %Ck
168   %m = fmul double %t1, %t2
169   store double %m, double* %Ak
170   %j = sub i64 %i, 256
171   %Aj = getelementptr inbounds double* %A, i64 %j
172   %Bj = getelementptr inbounds double* %B, i64 %j
173   %Cj = getelementptr inbounds double* %C, i64 %j
174   %t3 = load double* %Bj
175   %t4 = load double* %Cj
176   %o = fdiv double %t3, %t4
177   store double %o, double* %Aj
178   %i.next = add nsw i64 %i, 1
179   %exitcond = icmp eq i64 %i.next, %n
180   br i1 %exitcond, label %return, label %loop
181
182 return:
183   ret void
184 }
185
186 ; In this test, the counting IV exit value is used, so full strength reduction
187 ; would not reduce register pressure. IndVarSimplify ought to simplify such
188 ; cases away, but it's useful here to verify that LSR's register pressure
189 ; heuristics are working as expected.
190
191 ; CHECK: count_me_0:
192 ; CHECK: movsd   (%rsi,%rax,8), %xmm0
193 ; CHECK: mulsd   (%rdx,%rax,8), %xmm0
194 ; CHECK: movsd   %xmm0, (%rdi,%rax,8)
195 ; CHECK: incq    %rax
196 ; CHECK: cmpq    %rax, %rcx
197 ; CHECK: jne
198
199 define i64 @count_me_0(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
200 entry:
201   %t0 = icmp sgt i64 %n, 0
202   br i1 %t0, label %loop, label %return
203
204 loop:
205   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
206   %Ai = getelementptr inbounds double* %A, i64 %i
207   %Bi = getelementptr inbounds double* %B, i64 %i
208   %Ci = getelementptr inbounds double* %C, i64 %i
209   %t1 = load double* %Bi
210   %t2 = load double* %Ci
211   %m = fmul double %t1, %t2
212   store double %m, double* %Ai
213   %i.next = add nsw i64 %i, 1
214   %exitcond = icmp eq i64 %i.next, %n
215   br i1 %exitcond, label %return, label %loop
216
217 return:
218   %q = phi i64 [ 0, %entry ], [ %i.next, %loop ]
219   ret i64 %q
220 }
221
222 ; In this test, the trip count value is used, so full strength reduction
223 ; would not reduce register pressure.
224 ; (though it would reduce register pressure inside the loop...)
225
226 ; CHECK: count_me_1:
227 ; CHECK: movsd   (%rsi,%rax,8), %xmm0
228 ; CHECK: mulsd   (%rdx,%rax,8), %xmm0
229 ; CHECK: movsd   %xmm0, (%rdi,%rax,8)
230 ; CHECK: incq    %rax
231 ; CHECK: cmpq    %rax, %rcx
232 ; CHECK: jne
233
234 define i64 @count_me_1(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
235 entry:
236   %t0 = icmp sgt i64 %n, 0
237   br i1 %t0, label %loop, label %return
238
239 loop:
240   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
241   %Ai = getelementptr inbounds double* %A, i64 %i
242   %Bi = getelementptr inbounds double* %B, i64 %i
243   %Ci = getelementptr inbounds double* %C, i64 %i
244   %t1 = load double* %Bi
245   %t2 = load double* %Ci
246   %m = fmul double %t1, %t2
247   store double %m, double* %Ai
248   %i.next = add nsw i64 %i, 1
249   %exitcond = icmp eq i64 %i.next, %n
250   br i1 %exitcond, label %return, label %loop
251
252 return:
253   %q = phi i64 [ 0, %entry ], [ %n, %loop ]
254   ret i64 %q
255 }
256
257 ; Full strength reduction doesn't save any registers here because the
258 ; loop tripcount is a constant.
259
260 ; CHECK: count_me_2:
261 ; CHECK: movl    $10, %eax
262 ; CHECK: align
263 ; CHECK: BB6_1:
264 ; CHECK: movsd   -40(%rdi,%rax,8), %xmm0
265 ; CHECK: addsd   -40(%rsi,%rax,8), %xmm0
266 ; CHECK: movsd   %xmm0, -40(%rdx,%rax,8)
267 ; CHECK: movsd   (%rdi,%rax,8), %xmm0
268 ; CHECK: subsd   (%rsi,%rax,8), %xmm0
269 ; CHECK: movsd   %xmm0, (%rdx,%rax,8)
270 ; CHECK: incq    %rax
271 ; CHECK: cmpq    $5010, %rax
272 ; CHECK: jne
273
274 define void @count_me_2(double* nocapture %A, double* nocapture %B, double* nocapture %C) nounwind {
275 entry:
276   br label %loop
277
278 loop:
279   %i = phi i64 [ 0, %entry ], [ %i.next, %loop ]
280   %i5 = add i64 %i, 5
281   %Ai = getelementptr double* %A, i64 %i5
282   %t2 = load double* %Ai
283   %Bi = getelementptr double* %B, i64 %i5
284   %t4 = load double* %Bi
285   %t5 = fadd double %t2, %t4
286   %Ci = getelementptr double* %C, i64 %i5
287   store double %t5, double* %Ci
288   %i10 = add i64 %i, 10
289   %Ai10 = getelementptr double* %A, i64 %i10
290   %t9 = load double* %Ai10
291   %Bi10 = getelementptr double* %B, i64 %i10
292   %t11 = load double* %Bi10
293   %t12 = fsub double %t9, %t11
294   %Ci10 = getelementptr double* %C, i64 %i10
295   store double %t12, double* %Ci10
296   %i.next = add i64 %i, 1
297   %exitcond = icmp eq i64 %i.next, 5000
298   br i1 %exitcond, label %return, label %loop
299
300 return:
301   ret void
302 }
303
304 ; This should be fully strength-reduced to reduce register pressure.
305
306 ; CHECK: full_me_1:
307 ; CHECK: align
308 ; CHECK: BB7_1:
309 ; CHECK: movsd   (%rdi), %xmm0
310 ; CHECK: addsd   (%rsi), %xmm0
311 ; CHECK: movsd   %xmm0, (%rdx)
312 ; CHECK: movsd   40(%rdi), %xmm0
313 ; CHECK: subsd   40(%rsi), %xmm0
314 ; CHECK: movsd   %xmm0, 40(%rdx)
315 ; CHECK: addq    $8, %rdi
316 ; CHECK: addq    $8, %rsi
317 ; CHECK: addq    $8, %rdx
318 ; CHECK: decq    %rcx
319 ; CHECK: jne
320
321 define void @full_me_1(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
322 entry:
323   br label %loop
324
325 loop:
326   %i = phi i64 [ 0, %entry ], [ %i.next, %loop ]
327   %i5 = add i64 %i, 5
328   %Ai = getelementptr double* %A, i64 %i5
329   %t2 = load double* %Ai
330   %Bi = getelementptr double* %B, i64 %i5
331   %t4 = load double* %Bi
332   %t5 = fadd double %t2, %t4
333   %Ci = getelementptr double* %C, i64 %i5
334   store double %t5, double* %Ci
335   %i10 = add i64 %i, 10
336   %Ai10 = getelementptr double* %A, i64 %i10
337   %t9 = load double* %Ai10
338   %Bi10 = getelementptr double* %B, i64 %i10
339   %t11 = load double* %Bi10
340   %t12 = fsub double %t9, %t11
341   %Ci10 = getelementptr double* %C, i64 %i10
342   store double %t12, double* %Ci10
343   %i.next = add i64 %i, 1
344   %exitcond = icmp eq i64 %i.next, %n
345   br i1 %exitcond, label %return, label %loop
346
347 return:
348   ret void
349 }
350
351 ; This is a variation on full_me_0 in which the 0,+,1 induction variable
352 ; has a non-address use, pinning that value in a register.
353
354 ; CHECK: count_me_3:
355 ; CHECK: call
356 ; CHECK: movsd   (%r{{[^,]*}},%r{{[^,]*}},8), %xmm0
357 ; CHECK: mulsd   (%r{{[^,]*}},%r{{[^,]*}},8), %xmm0
358 ; CHECK: movsd   %xmm0, (%r{{[^,]*}},%r{{[^,]*}},8)
359 ; CHECK: incq    %r{{.*}}
360 ; CHECK: cmpq    %r{{.*}}, %r{{.*}}
361 ; CHECK: jne
362
363 declare void @use(i64)
364
365 define void @count_me_3(double* nocapture %A, double* nocapture %B, double* nocapture %C, i64 %n) nounwind {
366 entry:
367   %t0 = icmp sgt i64 %n, 0
368   br i1 %t0, label %loop, label %return
369
370 loop:
371   %i = phi i64 [ %i.next, %loop ], [ 0, %entry ]
372   call void @use(i64 %i)
373   %Ai = getelementptr inbounds double* %A, i64 %i
374   %Bi = getelementptr inbounds double* %B, i64 %i
375   %Ci = getelementptr inbounds double* %C, i64 %i
376   %t1 = load double* %Bi
377   %t2 = load double* %Ci
378   %m = fmul double %t1, %t2
379   store double %m, double* %Ai
380   %i.next = add nsw i64 %i, 1
381   %exitcond = icmp eq i64 %i.next, %n
382   br i1 %exitcond, label %return, label %loop
383
384 return:
385   ret void
386 }
387
388 ; LSR should use only one indvar for the inner loop.
389 ; rdar://7657764
390
391 ; CHECK: asd:
392 ; CHECK: BB9_5:
393 ; CHECK-NEXT: addl  (%r{{[^,]*}},%rdi,4), %e
394 ; CHECK-NEXT: incq  %rdi
395 ; CHECK-NEXT: cmpq  %rdi, %r{{[^,]*}}
396 ; CHECK-NEXT: jg
397
398 %struct.anon = type { i32, [4200 x i32] }
399
400 @bars = common global [123123 x %struct.anon] zeroinitializer, align 32 ; <[123123 x %struct.anon]*> [#uses=2]
401
402 define i32 @asd(i32 %n) nounwind readonly {
403 entry:
404   %0 = icmp sgt i32 %n, 0                         ; <i1> [#uses=1]
405   br i1 %0, label %bb.nph14, label %bb5
406
407 bb.nph14:                                         ; preds = %entry
408   %tmp18 = zext i32 %n to i64                     ; <i64> [#uses=1]
409   br label %bb
410
411 bb:                                               ; preds = %bb3, %bb.nph14
412   %indvar16 = phi i64 [ 0, %bb.nph14 ], [ %indvar.next17, %bb3 ] ; <i64> [#uses=3]
413   %s.113 = phi i32 [ 0, %bb.nph14 ], [ %s.0.lcssa, %bb3 ] ; <i32> [#uses=2]
414   %scevgep2526 = getelementptr [123123 x %struct.anon]* @bars, i64 0, i64 %indvar16, i32 0 ; <i32*> [#uses=1]
415   %1 = load i32* %scevgep2526, align 4            ; <i32> [#uses=2]
416   %2 = icmp sgt i32 %1, 0                         ; <i1> [#uses=1]
417   br i1 %2, label %bb.nph, label %bb3
418
419 bb.nph:                                           ; preds = %bb
420   %tmp23 = sext i32 %1 to i64                     ; <i64> [#uses=1]
421   br label %bb1
422
423 bb1:                                              ; preds = %bb.nph, %bb1
424   %indvar = phi i64 [ 0, %bb.nph ], [ %tmp19, %bb1 ] ; <i64> [#uses=2]
425   %s.07 = phi i32 [ %s.113, %bb.nph ], [ %4, %bb1 ] ; <i32> [#uses=1]
426   %c.08 = getelementptr [123123 x %struct.anon]* @bars, i64 0, i64 %indvar16, i32 1, i64 %indvar ; <i32*> [#uses=1]
427   %3 = load i32* %c.08, align 4                   ; <i32> [#uses=1]
428   %4 = add nsw i32 %3, %s.07                      ; <i32> [#uses=2]
429   %tmp19 = add i64 %indvar, 1                     ; <i64> [#uses=2]
430   %5 = icmp sgt i64 %tmp23, %tmp19                ; <i1> [#uses=1]
431   br i1 %5, label %bb1, label %bb3
432
433 bb3:                                              ; preds = %bb1, %bb
434   %s.0.lcssa = phi i32 [ %s.113, %bb ], [ %4, %bb1 ] ; <i32> [#uses=2]
435   %indvar.next17 = add i64 %indvar16, 1           ; <i64> [#uses=2]
436   %exitcond = icmp eq i64 %indvar.next17, %tmp18  ; <i1> [#uses=1]
437   br i1 %exitcond, label %bb5, label %bb
438
439 bb5:                                              ; preds = %bb3, %entry
440   %s.1.lcssa = phi i32 [ 0, %entry ], [ %s.0.lcssa, %bb3 ] ; <i32> [#uses=1]
441   ret i32 %s.1.lcssa
442 }
443
444 ; Two loops here are of particular interest; the one at %bb21, where
445 ; we don't want to leave extra induction variables around, or use an
446 ; lea to compute an exit condition inside the loop:
447
448 ; CHECK: test:
449
450 ; CHECK:      BB10_4:
451 ; CHECK-NEXT:   movaps  %xmm{{.*}}, %xmm{{.*}}
452 ; CHECK-NEXT:   addss   %xmm{{.*}}, %xmm{{.*}}
453 ; CHECK-NEXT:   mulss   (%r{{[^,]*}}), %xmm{{.*}}
454 ; CHECK-NEXT:   movss   %xmm{{.*}}, (%r{{[^,]*}})
455 ; CHECK-NEXT:   addq    $4, %r{{.*}}
456 ; CHECK-NEXT:   decq    %r{{.*}}
457 ; CHECK-NEXT:   addq    $4, %r{{.*}}
458 ; CHECK-NEXT:   movaps  %xmm{{.*}}, %xmm{{.*}}
459 ; CHECK-NEXT: BB10_2:
460 ; CHECK-NEXT:   testq   %r{{.*}}, %r{{.*}}
461 ; CHECK-NEXT:   jle
462 ; CHECK-NEXT:   testb   $15, %r{{.*}}
463 ; CHECK-NEXT:   jne
464
465 ; And the one at %bb68, where we want to be sure to use superhero mode:
466
467 ; CHECK:      BB10_9:
468 ; CHECK-NEXT:   movaps  48(%r{{[^,]*}}), %xmm{{.*}}
469 ; CHECK-NEXT:   mulps   %xmm{{.*}}, %xmm{{.*}}
470 ; CHECK-NEXT:   movaps  32(%r{{[^,]*}}), %xmm{{.*}}
471 ; CHECK-NEXT:   mulps   %xmm{{.*}}, %xmm{{.*}}
472 ; CHECK-NEXT:   movaps  16(%r{{[^,]*}}), %xmm{{.*}}
473 ; CHECK-NEXT:   mulps   %xmm{{.*}}, %xmm{{.*}}
474 ; CHECK-NEXT:   movaps  (%r{{[^,]*}}), %xmm{{.*}}
475 ; CHECK-NEXT:   mulps   %xmm{{.*}}, %xmm{{.*}}
476 ; CHECK-NEXT:   movaps  %xmm{{.*}}, (%r{{[^,]*}})
477 ; CHECK-NEXT:   movaps  %xmm{{.*}}, 16(%r{{[^,]*}})
478 ; CHECK-NEXT:   movaps  %xmm{{.*}}, 32(%r{{[^,]*}})
479 ; CHECK-NEXT:   movaps  %xmm{{.*}}, 48(%r{{[^,]*}})
480 ; CHECK-NEXT:   addps   %xmm{{.*}}, %xmm{{.*}}
481 ; CHECK-NEXT:   addps   %xmm{{.*}}, %xmm{{.*}}
482 ; CHECK-NEXT:   addps   %xmm{{.*}}, %xmm{{.*}}
483 ; CHECK-NEXT:   addps   %xmm{{.*}}, %xmm{{.*}}
484 ; CHECK-NEXT:   addq    $64, %r{{.*}}
485 ; CHECK-NEXT:   addq    $64, %r{{.*}}
486 ; CHECK-NEXT:   addq    $-16, %r{{.*}}
487 ; CHECK-NEXT: BB10_10:
488 ; CHECK-NEXT:   cmpq    $15, %r{{.*}}
489 ; CHECK-NEXT:   jg
490
491 define void @test(float* %arg, i64 %arg1, float* nocapture %arg2, float* nocapture %arg3, float* %arg4, i64 %arg5, i64 %arg6) nounwind {
492 bb:
493   %t = alloca float, align 4                      ; <float*> [#uses=3]
494   %t7 = alloca float, align 4                     ; <float*> [#uses=2]
495   %t8 = load float* %arg3                         ; <float> [#uses=8]
496   %t9 = ptrtoint float* %arg to i64               ; <i64> [#uses=1]
497   %t10 = ptrtoint float* %arg4 to i64             ; <i64> [#uses=1]
498   %t11 = xor i64 %t10, %t9                        ; <i64> [#uses=1]
499   %t12 = and i64 %t11, 15                         ; <i64> [#uses=1]
500   %t13 = icmp eq i64 %t12, 0                      ; <i1> [#uses=1]
501   %t14 = xor i64 %arg1, 1                         ; <i64> [#uses=1]
502   %t15 = xor i64 %arg5, 1                         ; <i64> [#uses=1]
503   %t16 = or i64 %t15, %t14                        ; <i64> [#uses=1]
504   %t17 = trunc i64 %t16 to i32                    ; <i32> [#uses=1]
505   %t18 = icmp eq i32 %t17, 0                      ; <i1> [#uses=1]
506   br i1 %t18, label %bb19, label %bb213
507
508 bb19:                                             ; preds = %bb
509   %t20 = load float* %arg2                        ; <float> [#uses=1]
510   br label %bb21
511
512 bb21:                                             ; preds = %bb32, %bb19
513   %t22 = phi i64 [ %t36, %bb32 ], [ 0, %bb19 ]    ; <i64> [#uses=21]
514   %t23 = phi float [ %t35, %bb32 ], [ %t20, %bb19 ] ; <float> [#uses=6]
515   %t24 = sub i64 %arg6, %t22                      ; <i64> [#uses=4]
516   %t25 = getelementptr float* %arg4, i64 %t22     ; <float*> [#uses=4]
517   %t26 = getelementptr float* %arg, i64 %t22      ; <float*> [#uses=3]
518   %t27 = icmp sgt i64 %t24, 0                     ; <i1> [#uses=1]
519   br i1 %t27, label %bb28, label %bb37
520
521 bb28:                                             ; preds = %bb21
522   %t29 = ptrtoint float* %t25 to i64              ; <i64> [#uses=1]
523   %t30 = and i64 %t29, 15                         ; <i64> [#uses=1]
524   %t31 = icmp eq i64 %t30, 0                      ; <i1> [#uses=1]
525   br i1 %t31, label %bb37, label %bb32
526
527 bb32:                                             ; preds = %bb28
528   %t33 = load float* %t26                         ; <float> [#uses=1]
529   %t34 = fmul float %t23, %t33                    ; <float> [#uses=1]
530   store float %t34, float* %t25
531   %t35 = fadd float %t23, %t8                     ; <float> [#uses=1]
532   %t36 = add i64 %t22, 1                          ; <i64> [#uses=1]
533   br label %bb21
534
535 bb37:                                             ; preds = %bb28, %bb21
536   %t38 = fmul float %t8, 4.000000e+00             ; <float> [#uses=1]
537   store float %t38, float* %t
538   %t39 = fmul float %t8, 1.600000e+01             ; <float> [#uses=1]
539   store float %t39, float* %t7
540   %t40 = fmul float %t8, 0.000000e+00             ; <float> [#uses=1]
541   %t41 = fadd float %t23, %t40                    ; <float> [#uses=1]
542   %t42 = insertelement <4 x float> undef, float %t41, i32 0 ; <<4 x float>> [#uses=1]
543   %t43 = fadd float %t23, %t8                     ; <float> [#uses=1]
544   %t44 = insertelement <4 x float> %t42, float %t43, i32 1 ; <<4 x float>> [#uses=1]
545   %t45 = fmul float %t8, 2.000000e+00             ; <float> [#uses=1]
546   %t46 = fadd float %t23, %t45                    ; <float> [#uses=1]
547   %t47 = insertelement <4 x float> %t44, float %t46, i32 2 ; <<4 x float>> [#uses=1]
548   %t48 = fmul float %t8, 3.000000e+00             ; <float> [#uses=1]
549   %t49 = fadd float %t23, %t48                    ; <float> [#uses=1]
550   %t50 = insertelement <4 x float> %t47, float %t49, i32 3 ; <<4 x float>> [#uses=5]
551   %t51 = call <4 x float> asm "movss $1, $0\09\0Apshufd $$0, $0, $0", "=x,*m,~{dirflag},~{fpsr},~{flags}"(float* %t) nounwind ; <<4 x float>> [#uses=3]
552   %t52 = fadd <4 x float> %t50, %t51              ; <<4 x float>> [#uses=3]
553   %t53 = fadd <4 x float> %t52, %t51              ; <<4 x float>> [#uses=3]
554   %t54 = fadd <4 x float> %t53, %t51              ; <<4 x float>> [#uses=2]
555   %t55 = call <4 x float> asm "movss $1, $0\09\0Apshufd $$0, $0, $0", "=x,*m,~{dirflag},~{fpsr},~{flags}"(float* %t7) nounwind ; <<4 x float>> [#uses=8]
556   %t56 = icmp sgt i64 %t24, 15                    ; <i1> [#uses=2]
557   br i1 %t13, label %bb57, label %bb118
558
559 bb57:                                             ; preds = %bb37
560   br i1 %t56, label %bb61, label %bb112
561
562 bb58:                                             ; preds = %bb68
563   %t59 = getelementptr float* %arg, i64 %t78      ; <float*> [#uses=1]
564   %t60 = getelementptr float* %arg4, i64 %t78     ; <float*> [#uses=1]
565   br label %bb112
566
567 bb61:                                             ; preds = %bb57
568   %t62 = add i64 %t22, 16                         ; <i64> [#uses=1]
569   %t63 = add i64 %t22, 4                          ; <i64> [#uses=1]
570   %t64 = add i64 %t22, 8                          ; <i64> [#uses=1]
571   %t65 = add i64 %t22, 12                         ; <i64> [#uses=1]
572   %t66 = add i64 %arg6, -16                       ; <i64> [#uses=1]
573   %t67 = sub i64 %t66, %t22                       ; <i64> [#uses=1]
574   br label %bb68
575
576 bb68:                                             ; preds = %bb68, %bb61
577   %t69 = phi i64 [ 0, %bb61 ], [ %t111, %bb68 ]   ; <i64> [#uses=3]
578   %t70 = phi <4 x float> [ %t54, %bb61 ], [ %t107, %bb68 ] ; <<4 x float>> [#uses=2]
579   %t71 = phi <4 x float> [ %t50, %bb61 ], [ %t103, %bb68 ] ; <<4 x float>> [#uses=2]
580   %t72 = phi <4 x float> [ %t53, %bb61 ], [ %t108, %bb68 ] ; <<4 x float>> [#uses=2]
581   %t73 = phi <4 x float> [ %t52, %bb61 ], [ %t109, %bb68 ] ; <<4 x float>> [#uses=2]
582   %t74 = shl i64 %t69, 4                          ; <i64> [#uses=5]
583   %t75 = add i64 %t22, %t74                       ; <i64> [#uses=2]
584   %t76 = getelementptr float* %arg, i64 %t75      ; <float*> [#uses=1]
585   %t77 = bitcast float* %t76 to <4 x float>*      ; <<4 x float>*> [#uses=1]
586   %t78 = add i64 %t62, %t74                       ; <i64> [#uses=2]
587   %t79 = add i64 %t63, %t74                       ; <i64> [#uses=2]
588   %t80 = getelementptr float* %arg, i64 %t79      ; <float*> [#uses=1]
589   %t81 = bitcast float* %t80 to <4 x float>*      ; <<4 x float>*> [#uses=1]
590   %t82 = add i64 %t64, %t74                       ; <i64> [#uses=2]
591   %t83 = getelementptr float* %arg, i64 %t82      ; <float*> [#uses=1]
592   %t84 = bitcast float* %t83 to <4 x float>*      ; <<4 x float>*> [#uses=1]
593   %t85 = add i64 %t65, %t74                       ; <i64> [#uses=2]
594   %t86 = getelementptr float* %arg, i64 %t85      ; <float*> [#uses=1]
595   %t87 = bitcast float* %t86 to <4 x float>*      ; <<4 x float>*> [#uses=1]
596   %t88 = getelementptr float* %arg4, i64 %t75     ; <float*> [#uses=1]
597   %t89 = bitcast float* %t88 to <4 x float>*      ; <<4 x float>*> [#uses=1]
598   %t90 = getelementptr float* %arg4, i64 %t79     ; <float*> [#uses=1]
599   %t91 = bitcast float* %t90 to <4 x float>*      ; <<4 x float>*> [#uses=1]
600   %t92 = getelementptr float* %arg4, i64 %t82     ; <float*> [#uses=1]
601   %t93 = bitcast float* %t92 to <4 x float>*      ; <<4 x float>*> [#uses=1]
602   %t94 = getelementptr float* %arg4, i64 %t85     ; <float*> [#uses=1]
603   %t95 = bitcast float* %t94 to <4 x float>*      ; <<4 x float>*> [#uses=1]
604   %t96 = mul i64 %t69, -16                        ; <i64> [#uses=1]
605   %t97 = add i64 %t67, %t96                       ; <i64> [#uses=2]
606   %t98 = load <4 x float>* %t77                   ; <<4 x float>> [#uses=1]
607   %t99 = load <4 x float>* %t81                   ; <<4 x float>> [#uses=1]
608   %t100 = load <4 x float>* %t84                  ; <<4 x float>> [#uses=1]
609   %t101 = load <4 x float>* %t87                  ; <<4 x float>> [#uses=1]
610   %t102 = fmul <4 x float> %t98, %t71             ; <<4 x float>> [#uses=1]
611   %t103 = fadd <4 x float> %t71, %t55             ; <<4 x float>> [#uses=2]
612   %t104 = fmul <4 x float> %t99, %t73             ; <<4 x float>> [#uses=1]
613   %t105 = fmul <4 x float> %t100, %t72            ; <<4 x float>> [#uses=1]
614   %t106 = fmul <4 x float> %t101, %t70            ; <<4 x float>> [#uses=1]
615   store <4 x float> %t102, <4 x float>* %t89
616   store <4 x float> %t104, <4 x float>* %t91
617   store <4 x float> %t105, <4 x float>* %t93
618   store <4 x float> %t106, <4 x float>* %t95
619   %t107 = fadd <4 x float> %t70, %t55             ; <<4 x float>> [#uses=1]
620   %t108 = fadd <4 x float> %t72, %t55             ; <<4 x float>> [#uses=1]
621   %t109 = fadd <4 x float> %t73, %t55             ; <<4 x float>> [#uses=1]
622   %t110 = icmp sgt i64 %t97, 15                   ; <i1> [#uses=1]
623   %t111 = add i64 %t69, 1                         ; <i64> [#uses=1]
624   br i1 %t110, label %bb68, label %bb58
625
626 bb112:                                            ; preds = %bb58, %bb57
627   %t113 = phi float* [ %t59, %bb58 ], [ %t26, %bb57 ] ; <float*> [#uses=1]
628   %t114 = phi float* [ %t60, %bb58 ], [ %t25, %bb57 ] ; <float*> [#uses=1]
629   %t115 = phi <4 x float> [ %t103, %bb58 ], [ %t50, %bb57 ] ; <<4 x float>> [#uses=1]
630   %t116 = phi i64 [ %t97, %bb58 ], [ %t24, %bb57 ] ; <i64> [#uses=1]
631   %t117 = call <4 x float> asm "movss $1, $0\09\0Apshufd $$0, $0, $0", "=x,*m,~{dirflag},~{fpsr},~{flags}"(float* %t) nounwind ; <<4 x float>> [#uses=0]
632   br label %bb194
633
634 bb118:                                            ; preds = %bb37
635   br i1 %t56, label %bb122, label %bb194
636
637 bb119:                                            ; preds = %bb137
638   %t120 = getelementptr float* %arg, i64 %t145    ; <float*> [#uses=1]
639   %t121 = getelementptr float* %arg4, i64 %t145   ; <float*> [#uses=1]
640   br label %bb194
641
642 bb122:                                            ; preds = %bb118
643   %t123 = add i64 %t22, -1                        ; <i64> [#uses=1]
644   %t124 = getelementptr inbounds float* %arg, i64 %t123 ; <float*> [#uses=1]
645   %t125 = bitcast float* %t124 to <4 x float>*    ; <<4 x float>*> [#uses=1]
646   %t126 = load <4 x float>* %t125                 ; <<4 x float>> [#uses=1]
647   %t127 = add i64 %t22, 16                        ; <i64> [#uses=1]
648   %t128 = add i64 %t22, 3                         ; <i64> [#uses=1]
649   %t129 = add i64 %t22, 7                         ; <i64> [#uses=1]
650   %t130 = add i64 %t22, 11                        ; <i64> [#uses=1]
651   %t131 = add i64 %t22, 15                        ; <i64> [#uses=1]
652   %t132 = add i64 %t22, 4                         ; <i64> [#uses=1]
653   %t133 = add i64 %t22, 8                         ; <i64> [#uses=1]
654   %t134 = add i64 %t22, 12                        ; <i64> [#uses=1]
655   %t135 = add i64 %arg6, -16                      ; <i64> [#uses=1]
656   %t136 = sub i64 %t135, %t22                     ; <i64> [#uses=1]
657   br label %bb137
658
659 bb137:                                            ; preds = %bb137, %bb122
660   %t138 = phi i64 [ 0, %bb122 ], [ %t193, %bb137 ] ; <i64> [#uses=3]
661   %t139 = phi <4 x float> [ %t54, %bb122 ], [ %t189, %bb137 ] ; <<4 x float>> [#uses=2]
662   %t140 = phi <4 x float> [ %t50, %bb122 ], [ %t185, %bb137 ] ; <<4 x float>> [#uses=2]
663   %t141 = phi <4 x float> [ %t53, %bb122 ], [ %t190, %bb137 ] ; <<4 x float>> [#uses=2]
664   %t142 = phi <4 x float> [ %t52, %bb122 ], [ %t191, %bb137 ] ; <<4 x float>> [#uses=2]
665   %t143 = phi <4 x float> [ %t126, %bb122 ], [ %t175, %bb137 ] ; <<4 x float>> [#uses=1]
666   %t144 = shl i64 %t138, 4                        ; <i64> [#uses=9]
667   %t145 = add i64 %t127, %t144                    ; <i64> [#uses=2]
668   %t146 = add i64 %t128, %t144                    ; <i64> [#uses=1]
669   %t147 = getelementptr float* %arg, i64 %t146    ; <float*> [#uses=1]
670   %t148 = bitcast float* %t147 to <4 x float>*    ; <<4 x float>*> [#uses=1]
671   %t149 = add i64 %t129, %t144                    ; <i64> [#uses=1]
672   %t150 = getelementptr float* %arg, i64 %t149    ; <float*> [#uses=1]
673   %t151 = bitcast float* %t150 to <4 x float>*    ; <<4 x float>*> [#uses=1]
674   %t152 = add i64 %t130, %t144                    ; <i64> [#uses=1]
675   %t153 = getelementptr float* %arg, i64 %t152    ; <float*> [#uses=1]
676   %t154 = bitcast float* %t153 to <4 x float>*    ; <<4 x float>*> [#uses=1]
677   %t155 = add i64 %t131, %t144                    ; <i64> [#uses=1]
678   %t156 = getelementptr float* %arg, i64 %t155    ; <float*> [#uses=1]
679   %t157 = bitcast float* %t156 to <4 x float>*    ; <<4 x float>*> [#uses=1]
680   %t158 = add i64 %t22, %t144                     ; <i64> [#uses=1]
681   %t159 = getelementptr float* %arg4, i64 %t158   ; <float*> [#uses=1]
682   %t160 = bitcast float* %t159 to <4 x float>*    ; <<4 x float>*> [#uses=1]
683   %t161 = add i64 %t132, %t144                    ; <i64> [#uses=1]
684   %t162 = getelementptr float* %arg4, i64 %t161   ; <float*> [#uses=1]
685   %t163 = bitcast float* %t162 to <4 x float>*    ; <<4 x float>*> [#uses=1]
686   %t164 = add i64 %t133, %t144                    ; <i64> [#uses=1]
687   %t165 = getelementptr float* %arg4, i64 %t164   ; <float*> [#uses=1]
688   %t166 = bitcast float* %t165 to <4 x float>*    ; <<4 x float>*> [#uses=1]
689   %t167 = add i64 %t134, %t144                    ; <i64> [#uses=1]
690   %t168 = getelementptr float* %arg4, i64 %t167   ; <float*> [#uses=1]
691   %t169 = bitcast float* %t168 to <4 x float>*    ; <<4 x float>*> [#uses=1]
692   %t170 = mul i64 %t138, -16                      ; <i64> [#uses=1]
693   %t171 = add i64 %t136, %t170                    ; <i64> [#uses=2]
694   %t172 = load <4 x float>* %t148                 ; <<4 x float>> [#uses=2]
695   %t173 = load <4 x float>* %t151                 ; <<4 x float>> [#uses=2]
696   %t174 = load <4 x float>* %t154                 ; <<4 x float>> [#uses=2]
697   %t175 = load <4 x float>* %t157                 ; <<4 x float>> [#uses=2]
698   %t176 = shufflevector <4 x float> %t143, <4 x float> %t172, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
699   %t177 = shufflevector <4 x float> %t176, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
700   %t178 = shufflevector <4 x float> %t172, <4 x float> %t173, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
701   %t179 = shufflevector <4 x float> %t178, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
702   %t180 = shufflevector <4 x float> %t173, <4 x float> %t174, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
703   %t181 = shufflevector <4 x float> %t180, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
704   %t182 = shufflevector <4 x float> %t174, <4 x float> %t175, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
705   %t183 = shufflevector <4 x float> %t182, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
706   %t184 = fmul <4 x float> %t177, %t140           ; <<4 x float>> [#uses=1]
707   %t185 = fadd <4 x float> %t140, %t55            ; <<4 x float>> [#uses=2]
708   %t186 = fmul <4 x float> %t179, %t142           ; <<4 x float>> [#uses=1]
709   %t187 = fmul <4 x float> %t181, %t141           ; <<4 x float>> [#uses=1]
710   %t188 = fmul <4 x float> %t183, %t139           ; <<4 x float>> [#uses=1]
711   store <4 x float> %t184, <4 x float>* %t160
712   store <4 x float> %t186, <4 x float>* %t163
713   store <4 x float> %t187, <4 x float>* %t166
714   store <4 x float> %t188, <4 x float>* %t169
715   %t189 = fadd <4 x float> %t139, %t55            ; <<4 x float>> [#uses=1]
716   %t190 = fadd <4 x float> %t141, %t55            ; <<4 x float>> [#uses=1]
717   %t191 = fadd <4 x float> %t142, %t55            ; <<4 x float>> [#uses=1]
718   %t192 = icmp sgt i64 %t171, 15                  ; <i1> [#uses=1]
719   %t193 = add i64 %t138, 1                        ; <i64> [#uses=1]
720   br i1 %t192, label %bb137, label %bb119
721
722 bb194:                                            ; preds = %bb119, %bb118, %bb112
723   %t195 = phi i64 [ %t116, %bb112 ], [ %t171, %bb119 ], [ %t24, %bb118 ] ; <i64> [#uses=2]
724   %t196 = phi <4 x float> [ %t115, %bb112 ], [ %t185, %bb119 ], [ %t50, %bb118 ] ; <<4 x float>> [#uses=1]
725   %t197 = phi float* [ %t114, %bb112 ], [ %t121, %bb119 ], [ %t25, %bb118 ] ; <float*> [#uses=1]
726   %t198 = phi float* [ %t113, %bb112 ], [ %t120, %bb119 ], [ %t26, %bb118 ] ; <float*> [#uses=1]
727   %t199 = extractelement <4 x float> %t196, i32 0 ; <float> [#uses=2]
728   %t200 = icmp sgt i64 %t195, 0                   ; <i1> [#uses=1]
729   br i1 %t200, label %bb201, label %bb211
730
731 bb201:                                            ; preds = %bb201, %bb194
732   %t202 = phi i64 [ %t209, %bb201 ], [ 0, %bb194 ] ; <i64> [#uses=3]
733   %t203 = phi float [ %t208, %bb201 ], [ %t199, %bb194 ] ; <float> [#uses=2]
734   %t204 = getelementptr float* %t198, i64 %t202   ; <float*> [#uses=1]
735   %t205 = getelementptr float* %t197, i64 %t202   ; <float*> [#uses=1]
736   %t206 = load float* %t204                       ; <float> [#uses=1]
737   %t207 = fmul float %t203, %t206                 ; <float> [#uses=1]
738   store float %t207, float* %t205
739   %t208 = fadd float %t203, %t8                   ; <float> [#uses=2]
740   %t209 = add i64 %t202, 1                        ; <i64> [#uses=2]
741   %t210 = icmp eq i64 %t209, %t195                ; <i1> [#uses=1]
742   br i1 %t210, label %bb211, label %bb201
743
744 bb211:                                            ; preds = %bb201, %bb194
745   %t212 = phi float [ %t199, %bb194 ], [ %t208, %bb201 ] ; <float> [#uses=1]
746   store float %t212, float* %arg2
747   ret void
748
749 bb213:                                            ; preds = %bb
750   ret void
751 }