[FastISel][AArch64] Optimize compare-and-branch for i1 to use 'tbz'.
[oota-llvm.git] / test / CodeGen / R600 / simplify-demanded-bits-build-pair.ll
1 ; XFAIL: *
2 ; RUN: llc -verify-machineinstrs -march=r600 -mcpu=SI -mattr=-promote-alloca < %s | FileCheck -check-prefix=SI %s
3
4 ; 64-bit select was originally lowered with a build_pair, and this
5 ; could be simplified to 1 cndmask instead of 2, but that broken when
6 ; it started being implemented with a v2i32 build_vector and
7 ; bitcasting.
8 define void @trunc_select_i64(i32 addrspace(1)* %out, i64 %a, i64 %b, i32 %c) {
9   %cmp = icmp eq i32 %c, 0
10   %select = select i1 %cmp, i64 %a, i64 %b
11   %trunc = trunc i64 %select to i32
12   store i32 %trunc, i32 addrspace(1)* %out, align 4
13   ret void
14 }
15
16 ; FIXME: Fix truncating store for local memory
17 ; SI-LABEL: {{^}}trunc_load_alloca_i64:
18 ; SI: V_MOVRELS_B32
19 ; SI-NOT: V_MOVRELS_B32
20 ; SI: S_ENDPGM
21 define void @trunc_load_alloca_i64(i64 addrspace(1)* %out, i32 %a, i32 %b) {
22   %idx = add i32 %a, %b
23   %alloca = alloca i64, i32 4
24   %gep0 = getelementptr i64* %alloca, i64 0
25   %gep1 = getelementptr i64* %alloca, i64 1
26   %gep2 = getelementptr i64* %alloca, i64 2
27   %gep3 = getelementptr i64* %alloca, i64 3
28   store i64 24, i64* %gep0, align 8
29   store i64 9334, i64* %gep1, align 8
30   store i64 3935, i64* %gep2, align 8
31   store i64 9342, i64* %gep3, align 8
32   %gep = getelementptr i64* %alloca, i32 %idx
33   %load = load i64* %gep, align 8
34   %mask = and i64 %load, 4294967296
35   %add = add i64 %mask, -1
36   store i64 %add, i64 addrspace(1)* %out, align 4
37   ret void
38 }