Fix a broadcast related regression on the vector shuffle lowering.
[oota-llvm.git] / test / CodeGen / X86 / sibcall.ll
index de98cb4bb616285b89998d249c673dca9c684899..28fc626afd9d6de0d16fd330867c47e7c726ccc0 100644 (file)
@@ -3,10 +3,10 @@
 
 define void @t1(i32 %x) nounwind ssp {
 entry:
-; 32: t1:
+; 32-LABEL: t1:
 ; 32: jmp {{_?}}foo
 
-; 64: t1:
+; 64-LABEL: t1:
 ; 64: jmp {{_?}}foo
   tail call void @foo() nounwind
   ret void
@@ -16,10 +16,10 @@ declare void @foo()
 
 define void @t2() nounwind ssp {
 entry:
-; 32: t2:
+; 32-LABEL: t2:
 ; 32: jmp {{_?}}foo2
 
-; 64: t2:
+; 64-LABEL: t2:
 ; 64: jmp {{_?}}foo2
   %0 = tail call i32 @foo2() nounwind
   ret void
@@ -29,10 +29,10 @@ declare i32 @foo2()
 
 define void @t3() nounwind ssp {
 entry:
-; 32: t3:
+; 32-LABEL: t3:
 ; 32: jmp {{_?}}foo3
 
-; 64: t3:
+; 64-LABEL: t3:
 ; 64: jmp {{_?}}foo3
   %0 = tail call i32 @foo3() nounwind
   ret void
@@ -42,11 +42,11 @@ declare i32 @foo3()
 
 define void @t4(void (i32)* nocapture %x) nounwind ssp {
 entry:
-; 32: t4:
+; 32-LABEL: t4:
 ; 32: calll *
 ; FIXME: gcc can generate a tailcall for this. But it's tricky.
 
-; 64: t4:
+; 64-LABEL: t4:
 ; 64-NOT: call
 ; 64: jmpq *
   tail call void %x(i32 0) nounwind
@@ -55,11 +55,11 @@ entry:
 
 define void @t5(void ()* nocapture %x) nounwind ssp {
 entry:
-; 32: t5:
+; 32-LABEL: t5:
 ; 32-NOT: call
 ; 32: jmpl *4(%esp)
 
-; 64: t5:
+; 64-LABEL: t5:
 ; 64-NOT: call
 ; 64: jmpq *%rdi
   tail call void %x() nounwind
@@ -68,11 +68,11 @@ entry:
 
 define i32 @t6(i32 %x) nounwind ssp {
 entry:
-; 32: t6:
+; 32-LABEL: t6:
 ; 32: calll {{_?}}t6
 ; 32: jmp {{_?}}bar
 
-; 64: t6:
+; 64-LABEL: t6:
 ; 64: jmp {{_?}}t6
 ; 64: jmp {{_?}}bar
   %0 = icmp slt i32 %x, 10
@@ -92,10 +92,10 @@ declare i32 @bar(i32)
 
 define i32 @t7(i32 %a, i32 %b, i32 %c) nounwind ssp {
 entry:
-; 32: t7:
+; 32-LABEL: t7:
 ; 32: jmp {{_?}}bar2
 
-; 64: t7:
+; 64-LABEL: t7:
 ; 64: jmp {{_?}}bar2
   %0 = tail call i32 @bar2(i32 %a, i32 %b, i32 %c) nounwind
   ret i32 %0
@@ -105,11 +105,11 @@ declare i32 @bar2(i32, i32, i32)
 
 define signext i16 @t8() nounwind ssp {
 entry:
-; 32: t8:
-; 32: calll {{_?}}bar3
+; 32-LABEL: t8:
+; 32: jmp {{_?}}bar3
 
-; 64: t8:
-; 64: callq {{_?}}bar3
+; 64-LABEL: t8:
+; 64: jmp {{_?}}bar3
   %0 = tail call signext i16 @bar3() nounwind      ; <i16> [#uses=1]
   ret i16 %0
 }
@@ -118,11 +118,11 @@ declare signext i16 @bar3()
 
 define signext i16 @t9(i32 (i32)* nocapture %x) nounwind ssp {
 entry:
-; 32: t9:
+; 32-LABEL: t9:
 ; 32: calll *
 
-; 64: t9:
-; 64: callq *
+; 64-LABEL: t9:
+; 64: jmpq *
   %0 = bitcast i32 (i32)* %x to i16 (i32)*
   %1 = tail call signext i16 %0(i32 0) nounwind
   ret i16 %1
@@ -130,10 +130,10 @@ entry:
 
 define void @t10() nounwind ssp {
 entry:
-; 32: t10:
+; 32-LABEL: t10:
 ; 32: calll
 
-; 64: t10:
+; 64-LABEL: t10:
 ; 64: callq
   %0 = tail call i32 @foo4() noreturn nounwind
   unreachable
@@ -145,14 +145,14 @@ define i32 @t11(i32 %x, i32 %y, i32 %z.0, i32 %z.1, i32 %z.2) nounwind ssp {
 ; In 32-bit mode, it's emitting a bunch of dead loads that are not being
 ; eliminated currently.
 
-; 32: t11:
+; 32-LABEL: t11:
 ; 32-NOT: subl ${{[0-9]+}}, %esp
 ; 32: je
 ; 32-NOT: movl
 ; 32-NOT: addl ${{[0-9]+}}, %esp
 ; 32: jmp {{_?}}foo5
 
-; 64: t11:
+; 64-LABEL: t11:
 ; 64-NOT: subq ${{[0-9]+}}, %esp
 ; 64-NOT: addq ${{[0-9]+}}, %esp
 ; 64: jmp {{_?}}foo5
@@ -173,12 +173,12 @@ declare i32 @foo5(i32, i32, i32, i32, i32)
 %struct.t = type { i32, i32, i32, i32, i32 }
 
 define i32 @t12(i32 %x, i32 %y, %struct.t* byval align 4 %z) nounwind ssp {
-; 32: t12:
+; 32-LABEL: t12:
 ; 32-NOT: subl ${{[0-9]+}}, %esp
 ; 32-NOT: addl ${{[0-9]+}}, %esp
 ; 32: jmp {{_?}}foo6
 
-; 64: t12:
+; 64-LABEL: t12:
 ; 64-NOT: subq ${{[0-9]+}}, %esp
 ; 64-NOT: addq ${{[0-9]+}}, %esp
 ; 64: jmp {{_?}}foo6
@@ -201,12 +201,12 @@ declare i32 @foo6(i32, i32, %struct.t* byval align 4)
 %struct.cp = type { float, float, float, float, float }
 
 define %struct.ns* @t13(%struct.cp* %yy) nounwind ssp {
-; 32: t13:
+; 32-LABEL: t13:
 ; 32-NOT: jmp
 ; 32: calll
 ; 32: ret
 
-; 64: t13:
+; 64-LABEL: t13:
 ; 64-NOT: jmp
 ; 64: callq
 ; 64: ret
@@ -226,7 +226,7 @@ declare fastcc %struct.ns* @foo7(%struct.cp* byval align 4, i8 signext) nounwind
 
 define void @t14(%struct.__block_literal_2* nocapture %.block_descriptor) nounwind ssp {
 entry:
-; 64: t14:
+; 64-LABEL: t14:
 ; 64: movq 32(%rdi)
 ; 64-NOT: movq 16(%rdi)
 ; 64: jmpq *16({{%rdi|%rax}})
@@ -245,13 +245,13 @@ entry:
 %struct.foo = type { [4 x i32] }
 
 define void @t15(%struct.foo* noalias sret %agg.result) nounwind  {
-; 32: t15:
+; 32-LABEL: t15:
 ; 32: calll {{_?}}f
-; 32: ret $4
+; 32: retl $4
 
-; 64: t15:
+; 64-LABEL: t15:
 ; 64: callq {{_?}}f
-; 64: ret
+; 64: retq
   tail call fastcc void @f(%struct.foo* noalias sret %agg.result) nounwind
   ret void
 }
@@ -260,11 +260,11 @@ declare void @f(%struct.foo* noalias sret) nounwind
 
 define void @t16() nounwind ssp {
 entry:
-; 32: t16:
+; 32-LABEL: t16:
 ; 32: calll {{_?}}bar4
 ; 32: fstp
 
-; 64: t16:
+; 64-LABEL: t16:
 ; 64: jmp {{_?}}bar4
   %0 = tail call double @bar4() nounwind
   ret void
@@ -275,10 +275,10 @@ declare double @bar4()
 ; rdar://6283267
 define void @t17() nounwind ssp {
 entry:
-; 32: t17:
+; 32-LABEL: t17:
 ; 32: jmp {{_?}}bar5
 
-; 64: t17:
+; 64-LABEL: t17:
 ; 64: xorl %eax, %eax
 ; 64: jmp {{_?}}bar5
   tail call void (...)* @bar5() nounwind
@@ -290,11 +290,11 @@ declare void @bar5(...)
 ; rdar://7774847
 define void @t18() nounwind ssp {
 entry:
-; 32: t18:
+; 32-LABEL: t18:
 ; 32: calll {{_?}}bar6
 ; 32: fstp %st(0)
 
-; 64: t18:
+; 64-LABEL: t18:
 ; 64: xorl %eax, %eax
 ; 64: jmp {{_?}}bar6
   %0 = tail call double (...)* @bar6() nounwind
@@ -305,7 +305,7 @@ declare double @bar6(...)
 
 define void @t19() alignstack(32) nounwind {
 entry:
-; CHECK: t19:
+; CHECK-LABEL: t19:
 ; CHECK: andl $-32
 ; CHECK: calll {{_?}}foo
   tail call void @foo() nounwind
@@ -318,11 +318,11 @@ entry:
 
 define double @t20(double %x) nounwind {
 entry:
-; 32: t20:
+; 32-LABEL: t20:
 ; 32: calll {{_?}}foo20
 ; 32: fldl (%esp)
 
-; 64: t20:
+; 64-LABEL: t20:
 ; 64: jmp {{_?}}foo20
   %0 = tail call fastcc double @foo20(double %x) nounwind
   ret double %0