5a740d83df3e768860d349c4351c0c496a243bb6
[oota-llvm.git] / test / CodeGen / AArch64 / arm64-patchpoint-scratch-regs.ll
1 ; RUN: llc -mtriple=arm64-apple-darwin -enable-misched=0 -mcpu=cyclone < %s | FileCheck %s
2
3 ; Test that scratch registers are spilled around patchpoints
4 ; CHECK: InlineAsm End
5 ; CHECK-NEXT: mov x{{[0-9]+}}, x16
6 ; CHECK-NEXT: mov x{{[0-9]+}}, x17
7 ; CHECK-NEXT: Ltmp
8 ; CHECK-NEXT: nop
9 define void @clobberScratch(i32* %p) {
10   %v = load i32, i32* %p
11   tail call void asm sideeffect "nop", "~{x0},~{x1},~{x2},~{x3},~{x4},~{x5},~{x6},~{x7},~{x8},~{x9},~{x10},~{x11},~{x12},~{x13},~{x14},~{x15},~{x18},~{x19},~{x20},~{x21},~{x22},~{x23},~{x24},~{x25},~{x26},~{x27},~{x28},~{x29},~{x30},~{x31}"() nounwind
12   tail call void (i64, i32, i8*, i32, ...)* @llvm.experimental.patchpoint.void(i64 5, i32 20, i8* null, i32 0, i32* %p, i32 %v)
13   store i32 %v, i32* %p
14   ret void
15 }
16
17 declare void @llvm.experimental.patchpoint.void(i64, i32, i8*, i32, ...)
18