X-Git-Url: http://plrg.eecs.uci.edu/git/?a=blobdiff_plain;f=test%2FCodeGen%2FX86%2Flsr-loop-exit-cond.ll;h=2e3929be31c50e3c43b9a94c89b6c427c7f5b91e;hb=417a782401d671d2434d8bcedc6b10a5076525cd;hp=ebda9f201df968eaa67d18050c18e99da156d55a;hpb=740cd657f3d9d4e88614831c70a649f9257164da;p=oota-llvm.git diff --git a/test/CodeGen/X86/lsr-loop-exit-cond.ll b/test/CodeGen/X86/lsr-loop-exit-cond.ll index ebda9f201df..2e3929be31c 100644 --- a/test/CodeGen/X86/lsr-loop-exit-cond.ll +++ b/test/CodeGen/X86/lsr-loop-exit-cond.ll @@ -1,19 +1,25 @@ -; RUN: llc -mtriple=x86_64-darwin < %s | FileCheck %s +; RUN: llc -mtriple=x86_64-darwin -mcpu=generic < %s | FileCheck %s +; RUN: llc -mtriple=x86_64-darwin -mcpu=atom < %s | FileCheck -check-prefix=ATOM %s -; CHECK: t: -; CHECK: decq -; CHECK-NEXT: movl ( +; CHECK-LABEL: t: +; CHECK: movl (%r9,%rax,4), %e{{..}} +; CHECK-NEXT: decq ; CHECK-NEXT: jne +; ATOM-LABEL: t: +; ATOM: movl (%r9,%r{{.+}},4), %e{{..}} +; ATOM-NEXT: decq +; ATOM-NEXT: jne + @Te0 = external global [256 x i32] ; <[256 x i32]*> [#uses=5] @Te1 = external global [256 x i32] ; <[256 x i32]*> [#uses=4] @Te3 = external global [256 x i32] ; <[256 x i32]*> [#uses=2] define void @t(i8* nocapture %in, i8* nocapture %out, i32* nocapture %rk, i32 %r) nounwind { entry: - %0 = load i32* %rk, align 4 ; [#uses=1] - %1 = getelementptr i32* %rk, i64 1 ; [#uses=1] - %2 = load i32* %1, align 4 ; [#uses=1] + %0 = load i32, i32* %rk, align 4 ; [#uses=1] + %1 = getelementptr i32, i32* %rk, i64 1 ; [#uses=1] + %2 = load i32, i32* %1, align 4 ; [#uses=1] %tmp15 = add i32 %r, -1 ; [#uses=1] %tmp.16 = zext i32 %tmp15 to i64 ; [#uses=2] br label %bb @@ -26,64 +32,64 @@ bb: ; preds = %bb1, %entry %rk26 = bitcast i32* %rk to i8* ; [#uses=6] %3 = lshr i32 %s0.0, 24 ; [#uses=1] %4 = zext i32 %3 to i64 ; [#uses=1] - %5 = getelementptr [256 x i32]* @Te0, i64 0, i64 %4 ; [#uses=1] - %6 = load i32* %5, align 4 ; [#uses=1] + %5 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %4 ; [#uses=1] + %6 = load i32, i32* %5, align 4 ; [#uses=1] %7 = lshr i32 %s1.0, 16 ; [#uses=1] %8 = and i32 %7, 255 ; [#uses=1] %9 = zext i32 %8 to i64 ; [#uses=1] - %10 = getelementptr [256 x i32]* @Te1, i64 0, i64 %9 ; [#uses=1] - %11 = load i32* %10, align 4 ; [#uses=1] + %10 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %9 ; [#uses=1] + %11 = load i32, i32* %10, align 4 ; [#uses=1] %ctg2.sum2728 = or i64 %tmp18, 8 ; [#uses=1] - %12 = getelementptr i8* %rk26, i64 %ctg2.sum2728 ; [#uses=1] + %12 = getelementptr i8, i8* %rk26, i64 %ctg2.sum2728 ; [#uses=1] %13 = bitcast i8* %12 to i32* ; [#uses=1] - %14 = load i32* %13, align 4 ; [#uses=1] + %14 = load i32, i32* %13, align 4 ; [#uses=1] %15 = xor i32 %11, %6 ; [#uses=1] %16 = xor i32 %15, %14 ; [#uses=3] %17 = lshr i32 %s1.0, 24 ; [#uses=1] %18 = zext i32 %17 to i64 ; [#uses=1] - %19 = getelementptr [256 x i32]* @Te0, i64 0, i64 %18 ; [#uses=1] - %20 = load i32* %19, align 4 ; [#uses=1] + %19 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %18 ; [#uses=1] + %20 = load i32, i32* %19, align 4 ; [#uses=1] %21 = and i32 %s0.0, 255 ; [#uses=1] %22 = zext i32 %21 to i64 ; [#uses=1] - %23 = getelementptr [256 x i32]* @Te3, i64 0, i64 %22 ; [#uses=1] - %24 = load i32* %23, align 4 ; [#uses=1] + %23 = getelementptr [256 x i32], [256 x i32]* @Te3, i64 0, i64 %22 ; [#uses=1] + %24 = load i32, i32* %23, align 4 ; [#uses=1] %ctg2.sum2930 = or i64 %tmp18, 12 ; [#uses=1] - %25 = getelementptr i8* %rk26, i64 %ctg2.sum2930 ; [#uses=1] + %25 = getelementptr i8, i8* %rk26, i64 %ctg2.sum2930 ; [#uses=1] %26 = bitcast i8* %25 to i32* ; [#uses=1] - %27 = load i32* %26, align 4 ; [#uses=1] + %27 = load i32, i32* %26, align 4 ; [#uses=1] %28 = xor i32 %24, %20 ; [#uses=1] %29 = xor i32 %28, %27 ; [#uses=4] %30 = lshr i32 %16, 24 ; [#uses=1] %31 = zext i32 %30 to i64 ; [#uses=1] - %32 = getelementptr [256 x i32]* @Te0, i64 0, i64 %31 ; [#uses=1] - %33 = load i32* %32, align 4 ; [#uses=2] + %32 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %31 ; [#uses=1] + %33 = load i32, i32* %32, align 4 ; [#uses=2] %exitcond = icmp eq i64 %indvar, %tmp.16 ; [#uses=1] br i1 %exitcond, label %bb2, label %bb1 bb1: ; preds = %bb %ctg2.sum31 = add i64 %tmp18, 16 ; [#uses=1] - %34 = getelementptr i8* %rk26, i64 %ctg2.sum31 ; [#uses=1] + %34 = getelementptr i8, i8* %rk26, i64 %ctg2.sum31 ; [#uses=1] %35 = bitcast i8* %34 to i32* ; [#uses=1] %36 = lshr i32 %29, 16 ; [#uses=1] %37 = and i32 %36, 255 ; [#uses=1] %38 = zext i32 %37 to i64 ; [#uses=1] - %39 = getelementptr [256 x i32]* @Te1, i64 0, i64 %38 ; [#uses=1] - %40 = load i32* %39, align 4 ; [#uses=1] - %41 = load i32* %35, align 4 ; [#uses=1] + %39 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %38 ; [#uses=1] + %40 = load i32, i32* %39, align 4 ; [#uses=1] + %41 = load i32, i32* %35, align 4 ; [#uses=1] %42 = xor i32 %40, %33 ; [#uses=1] %43 = xor i32 %42, %41 ; [#uses=1] %44 = lshr i32 %29, 24 ; [#uses=1] %45 = zext i32 %44 to i64 ; [#uses=1] - %46 = getelementptr [256 x i32]* @Te0, i64 0, i64 %45 ; [#uses=1] - %47 = load i32* %46, align 4 ; [#uses=1] + %46 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %45 ; [#uses=1] + %47 = load i32, i32* %46, align 4 ; [#uses=1] %48 = and i32 %16, 255 ; [#uses=1] %49 = zext i32 %48 to i64 ; [#uses=1] - %50 = getelementptr [256 x i32]* @Te3, i64 0, i64 %49 ; [#uses=1] - %51 = load i32* %50, align 4 ; [#uses=1] + %50 = getelementptr [256 x i32], [256 x i32]* @Te3, i64 0, i64 %49 ; [#uses=1] + %51 = load i32, i32* %50, align 4 ; [#uses=1] %ctg2.sum32 = add i64 %tmp18, 20 ; [#uses=1] - %52 = getelementptr i8* %rk26, i64 %ctg2.sum32 ; [#uses=1] + %52 = getelementptr i8, i8* %rk26, i64 %ctg2.sum32 ; [#uses=1] %53 = bitcast i8* %52 to i32* ; [#uses=1] - %54 = load i32* %53, align 4 ; [#uses=1] + %54 = load i32, i32* %53, align 4 ; [#uses=1] %55 = xor i32 %51, %47 ; [#uses=1] %56 = xor i32 %55, %54 ; [#uses=1] %indvar.next = add i64 %indvar, 1 ; [#uses=1] @@ -92,48 +98,48 @@ bb1: ; preds = %bb bb2: ; preds = %bb %tmp10 = shl i64 %tmp.16, 4 ; [#uses=2] %ctg2.sum = add i64 %tmp10, 16 ; [#uses=1] - %tmp1213 = getelementptr i8* %rk26, i64 %ctg2.sum ; [#uses=1] + %tmp1213 = getelementptr i8, i8* %rk26, i64 %ctg2.sum ; [#uses=1] %57 = bitcast i8* %tmp1213 to i32* ; [#uses=1] %58 = and i32 %33, -16777216 ; [#uses=1] %59 = lshr i32 %29, 16 ; [#uses=1] %60 = and i32 %59, 255 ; [#uses=1] %61 = zext i32 %60 to i64 ; [#uses=1] - %62 = getelementptr [256 x i32]* @Te1, i64 0, i64 %61 ; [#uses=1] - %63 = load i32* %62, align 4 ; [#uses=1] + %62 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %61 ; [#uses=1] + %63 = load i32, i32* %62, align 4 ; [#uses=1] %64 = and i32 %63, 16711680 ; [#uses=1] %65 = or i32 %64, %58 ; [#uses=1] - %66 = load i32* %57, align 4 ; [#uses=1] + %66 = load i32, i32* %57, align 4 ; [#uses=1] %67 = xor i32 %65, %66 ; [#uses=2] %68 = lshr i32 %29, 8 ; [#uses=1] %69 = zext i32 %68 to i64 ; [#uses=1] - %70 = getelementptr [256 x i32]* @Te0, i64 0, i64 %69 ; [#uses=1] - %71 = load i32* %70, align 4 ; [#uses=1] + %70 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %69 ; [#uses=1] + %71 = load i32, i32* %70, align 4 ; [#uses=1] %72 = and i32 %71, -16777216 ; [#uses=1] %73 = and i32 %16, 255 ; [#uses=1] %74 = zext i32 %73 to i64 ; [#uses=1] - %75 = getelementptr [256 x i32]* @Te1, i64 0, i64 %74 ; [#uses=1] - %76 = load i32* %75, align 4 ; [#uses=1] + %75 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %74 ; [#uses=1] + %76 = load i32, i32* %75, align 4 ; [#uses=1] %77 = and i32 %76, 16711680 ; [#uses=1] %78 = or i32 %77, %72 ; [#uses=1] %ctg2.sum25 = add i64 %tmp10, 20 ; [#uses=1] - %79 = getelementptr i8* %rk26, i64 %ctg2.sum25 ; [#uses=1] + %79 = getelementptr i8, i8* %rk26, i64 %ctg2.sum25 ; [#uses=1] %80 = bitcast i8* %79 to i32* ; [#uses=1] - %81 = load i32* %80, align 4 ; [#uses=1] + %81 = load i32, i32* %80, align 4 ; [#uses=1] %82 = xor i32 %78, %81 ; [#uses=2] %83 = lshr i32 %67, 24 ; [#uses=1] %84 = trunc i32 %83 to i8 ; [#uses=1] store i8 %84, i8* %out, align 1 %85 = lshr i32 %67, 16 ; [#uses=1] %86 = trunc i32 %85 to i8 ; [#uses=1] - %87 = getelementptr i8* %out, i64 1 ; [#uses=1] + %87 = getelementptr i8, i8* %out, i64 1 ; [#uses=1] store i8 %86, i8* %87, align 1 - %88 = getelementptr i8* %out, i64 4 ; [#uses=1] + %88 = getelementptr i8, i8* %out, i64 4 ; [#uses=1] %89 = lshr i32 %82, 24 ; [#uses=1] %90 = trunc i32 %89 to i8 ; [#uses=1] store i8 %90, i8* %88, align 1 %91 = lshr i32 %82, 16 ; [#uses=1] %92 = trunc i32 %91 to i8 ; [#uses=1] - %93 = getelementptr i8* %out, i64 5 ; [#uses=1] + %93 = getelementptr i8, i8* %out, i64 5 ; [#uses=1] store i8 %92, i8* %93, align 1 ret void } @@ -142,13 +148,20 @@ bb2: ; preds = %bb ; is equal to the stride. ; It must not fold (cmp (add iv, 1), 1) --> (cmp iv, 0). -; CHECK: f: +; CHECK-LABEL: f: ; CHECK: %for.body ; CHECK: incl [[IV:%e..]] ; CHECK: cmpl $1, [[IV]] ; CHECK: jne ; CHECK: ret +; ATOM-LABEL: f: +; ATOM: %for.body +; ATOM: incl [[IV:%e..]] +; ATOM: cmpl $1, [[IV]] +; ATOM: jne +; ATOM: ret + define i32 @f(i32 %i, i32* nocapture %a) nounwind uwtable readonly ssp { entry: %cmp4 = icmp eq i32 %i, 1 @@ -162,8 +175,8 @@ for.body: ; preds = %for.body.lr.ph, %fo %indvars.iv = phi i64 [ %0, %for.body.lr.ph ], [ %indvars.iv.next, %for.body ] %bi.06 = phi i32 [ 0, %for.body.lr.ph ], [ %i.addr.0.bi.0, %for.body ] %b.05 = phi i32 [ 0, %for.body.lr.ph ], [ %.b.0, %for.body ] - %arrayidx = getelementptr inbounds i32* %a, i64 %indvars.iv - %1 = load i32* %arrayidx, align 4 + %arrayidx = getelementptr inbounds i32, i32* %a, i64 %indvars.iv + %1 = load i32, i32* %arrayidx, align 4 %cmp1 = icmp ugt i32 %1, %b.05 %.b.0 = select i1 %cmp1, i32 %1, i32 %b.05 %2 = trunc i64 %indvars.iv to i32 @@ -177,4 +190,3 @@ for.end: ; preds = %for.body, %entry %bi.0.lcssa = phi i32 [ 0, %entry ], [ %i.addr.0.bi.0, %for.body ] ret i32 %bi.0.lcssa } -