1 ; RUN: llc < %s -march=x86-64 -enable-lsr-nested | FileCheck %s
3 ; Nested LSR is required to optimize this case.
4 ; We do not expect to see this form of IR without -enable-iv-rewrite.
6 define void @borf(i8* nocapture %in, i8* nocapture %out) nounwind {
12 ; CHECK-NEXT: cmpq $-478
18 bb2.outer: ; preds = %bb4, %bb4.thread
19 %indvar19 = phi i64 [ 0, %bb4.thread ], [ %indvar.next29, %bb4 ] ; <i64> [#uses=3]
20 %indvar31 = trunc i64 %indvar19 to i16 ; <i16> [#uses=1]
21 %i.0.reg2mem.0.ph = sub i16 639, %indvar31 ; <i16> [#uses=1]
22 %0 = zext i16 %i.0.reg2mem.0.ph to i32 ; <i32> [#uses=1]
23 %1 = mul i32 %0, 480 ; <i32> [#uses=1]
24 %tmp21 = mul i64 %indvar19, -478 ; <i64> [#uses=1]
27 bb2: ; preds = %bb2, %bb2.outer
28 %indvar = phi i64 [ 0, %bb2.outer ], [ %indvar.next, %bb2 ] ; <i64> [#uses=3]
29 %indvar16 = trunc i64 %indvar to i16 ; <i16> [#uses=1]
30 %ctg2 = getelementptr i8* %out, i64 %tmp21 ; <i8*> [#uses=1]
31 %tmp22 = ptrtoint i8* %ctg2 to i64 ; <i64> [#uses=1]
32 %tmp24 = sub i64 %tmp22, %indvar ; <i64> [#uses=1]
33 %out_addr.0.reg2mem.0 = inttoptr i64 %tmp24 to i8* ; <i8*> [#uses=1]
34 %j.0.reg2mem.0 = sub i16 479, %indvar16 ; <i16> [#uses=1]
35 %2 = zext i16 %j.0.reg2mem.0 to i32 ; <i32> [#uses=1]
36 %3 = add i32 %1, %2 ; <i32> [#uses=9]
37 %4 = add i32 %3, -481 ; <i32> [#uses=1]
38 %5 = zext i32 %4 to i64 ; <i64> [#uses=1]
39 %6 = getelementptr i8* %in, i64 %5 ; <i8*> [#uses=1]
40 %7 = load i8* %6, align 1 ; <i8> [#uses=1]
41 %8 = add i32 %3, -480 ; <i32> [#uses=1]
42 %9 = zext i32 %8 to i64 ; <i64> [#uses=1]
43 %10 = getelementptr i8* %in, i64 %9 ; <i8*> [#uses=1]
44 %11 = load i8* %10, align 1 ; <i8> [#uses=1]
45 %12 = add i32 %3, -479 ; <i32> [#uses=1]
46 %13 = zext i32 %12 to i64 ; <i64> [#uses=1]
47 %14 = getelementptr i8* %in, i64 %13 ; <i8*> [#uses=1]
48 %15 = load i8* %14, align 1 ; <i8> [#uses=1]
49 %16 = add i32 %3, -1 ; <i32> [#uses=1]
50 %17 = zext i32 %16 to i64 ; <i64> [#uses=1]
51 %18 = getelementptr i8* %in, i64 %17 ; <i8*> [#uses=1]
52 %19 = load i8* %18, align 1 ; <i8> [#uses=1]
53 %20 = zext i32 %3 to i64 ; <i64> [#uses=1]
54 %21 = getelementptr i8* %in, i64 %20 ; <i8*> [#uses=1]
55 %22 = load i8* %21, align 1 ; <i8> [#uses=1]
56 %23 = add i32 %3, 1 ; <i32> [#uses=1]
57 %24 = zext i32 %23 to i64 ; <i64> [#uses=1]
58 %25 = getelementptr i8* %in, i64 %24 ; <i8*> [#uses=1]
59 %26 = load i8* %25, align 1 ; <i8> [#uses=1]
60 %27 = add i32 %3, 481 ; <i32> [#uses=1]
61 %28 = zext i32 %27 to i64 ; <i64> [#uses=1]
62 %29 = getelementptr i8* %in, i64 %28 ; <i8*> [#uses=1]
63 %30 = load i8* %29, align 1 ; <i8> [#uses=1]
64 %31 = add i32 %3, 480 ; <i32> [#uses=1]
65 %32 = zext i32 %31 to i64 ; <i64> [#uses=1]
66 %33 = getelementptr i8* %in, i64 %32 ; <i8*> [#uses=1]
67 %34 = load i8* %33, align 1 ; <i8> [#uses=1]
68 %35 = add i32 %3, 479 ; <i32> [#uses=1]
69 %36 = zext i32 %35 to i64 ; <i64> [#uses=1]
70 %37 = getelementptr i8* %in, i64 %36 ; <i8*> [#uses=1]
71 %38 = load i8* %37, align 1 ; <i8> [#uses=1]
72 %39 = add i8 %11, %7 ; <i8> [#uses=1]
73 %40 = add i8 %39, %15 ; <i8> [#uses=1]
74 %41 = add i8 %40, %19 ; <i8> [#uses=1]
75 %42 = add i8 %41, %22 ; <i8> [#uses=1]
76 %43 = add i8 %42, %26 ; <i8> [#uses=1]
77 %44 = add i8 %43, %30 ; <i8> [#uses=1]
78 %45 = add i8 %44, %34 ; <i8> [#uses=1]
79 %46 = add i8 %45, %38 ; <i8> [#uses=1]
80 store i8 %46, i8* %out_addr.0.reg2mem.0, align 1
81 %indvar.next = add i64 %indvar, 1 ; <i64> [#uses=2]
82 %exitcond = icmp eq i64 %indvar.next, 478 ; <i1> [#uses=1]
83 br i1 %exitcond, label %bb4, label %bb2
86 %indvar.next29 = add i64 %indvar19, 1 ; <i64> [#uses=2]
87 %exitcond30 = icmp eq i64 %indvar.next29, 638 ; <i1> [#uses=1]
88 br i1 %exitcond30, label %return, label %bb2.outer
90 return: ; preds = %bb4