Reverted AVX-512 vector shuffle
[oota-llvm.git] / test / CodeGen / X86 / fast-isel-gep.ll
index 577dd7223a4d7a9464f805c5d44d337bb2b6e5ad..1886d3379aad3ca6d39a5d5799df36bfdf4711c3 100644 (file)
@@ -1,33 +1,34 @@
-; RUN: llc < %s -march=x86-64 -O0 | FileCheck %s --check-prefix=X64
+; RUN: llc < %s -mtriple=x86_64-linux -O0 | FileCheck %s --check-prefix=X64
+; RUN: llc < %s -mtriple=x86_64-windows-itanium -O0 | FileCheck %s --check-prefix=X64
 ; RUN: llc < %s -march=x86 -O0 | FileCheck %s --check-prefix=X32
 
 ; GEP indices are interpreted as signed integers, so they
 ; should be sign-extended to 64 bits on 64-bit targets.
 ; PR3181
 define i32 @test1(i32 %t3, i32* %t1) nounwind {
-       %t9 = getelementptr i32* %t1, i32 %t3           ; <i32*> [#uses=1]
-       %t15 = load i32* %t9            ; <i32> [#uses=1]
+       %t9 = getelementptr i32, i32* %t1, i32 %t3           ; <i32*> [#uses=1]
+       %t15 = load i32, i32* %t9            ; <i32> [#uses=1]
        ret i32 %t15
-; X32: test1:
+; X32-LABEL: test1:
 ; X32:         movl    (%eax,%ecx,4), %eax
 ; X32:         ret
 
-; X64: test1:
-; X64:         movslq  %edi, %rax
-; X64:         movl    (%rsi,%rax,4), %eax
+; X64-LABEL: test1:
+; X64:         movslq  %e[[A0:di|cx]], %rax
+; X64:         movl    (%r[[A1:si|dx]],%rax,4), %eax
 ; X64:         ret
 
 }
 define i32 @test2(i64 %t3, i32* %t1) nounwind {
-       %t9 = getelementptr i32* %t1, i64 %t3           ; <i32*> [#uses=1]
-       %t15 = load i32* %t9            ; <i32> [#uses=1]
+       %t9 = getelementptr i32, i32* %t1, i64 %t3           ; <i32*> [#uses=1]
+       %t15 = load i32, i32* %t9            ; <i32> [#uses=1]
        ret i32 %t15
-; X32: test2:
-; X32:         movl    (%edx,%ecx,4), %eax
+; X32-LABEL: test2:
+; X32:         movl    (%edx,%ecx,4), %e
 ; X32:         ret
 
-; X64: test2:
-; X64:         movl    (%rsi,%rdi,4), %eax
+; X64-LABEL: test2:
+; X64:         movl    (%r[[A1]],%r[[A0]],4), %eax
 ; X64:         ret
 }
 
@@ -36,18 +37,18 @@ define i32 @test2(i64 %t3, i32* %t1) nounwind {
 ; PR4984
 define i8 @test3(i8* %start) nounwind {
 entry:
-  %A = getelementptr i8* %start, i64 -2               ; <i8*> [#uses=1]
-  %B = load i8* %A, align 1                       ; <i8> [#uses=1]
+  %A = getelementptr i8, i8* %start, i64 -2               ; <i8*> [#uses=1]
+  %B = load i8, i8* %A, align 1                       ; <i8> [#uses=1]
   ret i8 %B
   
   
-; X32: test3:
+; X32-LABEL: test3:
 ; X32:         movl    4(%esp), %eax
 ; X32:         movb    -2(%eax), %al
 ; X32:         ret
 
-; X64: test3:
-; X64:         movb    -2(%rdi), %al
+; X64-LABEL: test3:
+; X64:         movb    -2(%r[[A0]]), %al
 ; X64:         ret
 
 }
@@ -58,15 +59,80 @@ entry:
   %p.addr = alloca double*, align 8               ; <double**> [#uses=2]
   store i64 %x, i64* %x.addr
   store double* %p, double** %p.addr
-  %tmp = load i64* %x.addr                        ; <i64> [#uses=1]
+  %tmp = load i64, i64* %x.addr                        ; <i64> [#uses=1]
   %add = add nsw i64 %tmp, 16                     ; <i64> [#uses=1]
-  %tmp1 = load double** %p.addr                   ; <double*> [#uses=1]
-  %arrayidx = getelementptr inbounds double* %tmp1, i64 %add ; <double*> [#uses=1]
-  %tmp2 = load double* %arrayidx                  ; <double> [#uses=1]
+  %tmp1 = load double*, double** %p.addr                   ; <double*> [#uses=1]
+  %arrayidx = getelementptr inbounds double, double* %tmp1, i64 %add ; <double*> [#uses=1]
+  %tmp2 = load double, double* %arrayidx                  ; <double> [#uses=1]
   ret double %tmp2
 
-; X32: test4:
+; X32-LABEL: test4:
 ; X32: 128(%e{{.*}},%e{{.*}},8)
-; X64: test4:
+; X64-LABEL: test4:
 ; X64: 128(%r{{.*}},%r{{.*}},8)
 }
+
+; PR8961 - Make sure the sext for the GEP addressing comes before the load that
+; is folded.
+define i64 @test5(i8* %A, i32 %I, i64 %B) nounwind {
+  %v8 = getelementptr i8, i8* %A, i32 %I
+  %v9 = bitcast i8* %v8 to i64*
+  %v10 = load i64, i64* %v9
+  %v11 = add i64 %B, %v10
+  ret i64 %v11
+; X64-LABEL: test5:
+; X64: movslq  %e[[A1]], %rax
+; X64-NEXT: (%r[[A0]],%rax),
+; X64: ret
+}
+
+; PR9500, rdar://9156159 - Don't do non-local address mode folding,
+; because it may require values which wouldn't otherwise be live out
+; of their blocks.
+define void @test6() personality i32 (...)* @__gxx_personality_v0 {
+if.end:                                           ; preds = %if.then, %invoke.cont
+  %tmp15 = load i64, i64* undef
+  %dec = add i64 %tmp15, 13
+  store i64 %dec, i64* undef
+  %call17 = invoke i8* @_ZNK18G__FastAllocString4dataEv()
+          to label %invoke.cont16 unwind label %lpad
+
+invoke.cont16:                                    ; preds = %if.then14
+  %arrayidx18 = getelementptr inbounds i8, i8* %call17, i64 %dec
+  store i8 0, i8* %arrayidx18
+  unreachable
+
+lpad:                                             ; preds = %if.end19, %if.then14, %if.end, %entry
+  %exn = landingpad {i8*, i32}
+            cleanup
+  unreachable
+}
+declare i8* @_ZNK18G__FastAllocString4dataEv() nounwind
+
+
+; PR10605 / rdar://9930964 - Don't fold loads incorrectly.  The load should
+; happen before the store.  
+define i32 @test7({i32,i32,i32}* %tmp1, i32 %tmp71, i32 %tmp63) nounwind  {
+; X64-LABEL: test7:
+; X64:    movl 8({{%rdi|%rcx}}), %eax
+; X64:     movl        $4, 8({{%rdi|%rcx}})
+
+
+  %tmp29 = getelementptr inbounds {i32,i32,i32}, {i32,i32,i32}* %tmp1, i32 0, i32 2
+  %tmp30 = load i32, i32* %tmp29, align 4
+
+  %p2 = getelementptr inbounds {i32,i32,i32}, {i32,i32,i32}* %tmp1, i32 0, i32 2
+  store i32 4, i32* %p2
+  
+  %tmp72 = or i32 %tmp71, %tmp30
+  %tmp73 = icmp ne i32 %tmp63, 32
+  br i1 %tmp73, label %T, label %F
+
+T:
+  ret i32 %tmp72
+
+F:
+  ret i32 4
+}
+
+declare i32 @__gxx_personality_v0(...)