AArch64/ARM64: add another set of tests from AArch64
[oota-llvm.git] / test / CodeGen / AArch64 / neon-crypto.ll
1 ; RUN: llc < %s -verify-machineinstrs -mtriple=aarch64-none-linux-gnu -mattr=+neon -mattr=+crypto | FileCheck %s
2 ; RUN: not llc < %s -verify-machineinstrs -mtriple=aarch64-none-linux-gnu -mattr=+neon 2>&1 | FileCheck --check-prefix=CHECK-NO-CRYPTO %s
3
4 declare <4 x i32> @llvm.arm.neon.sha256su1(<4 x i32>, <4 x i32>, <4 x i32>) #1
5
6 declare <4 x i32> @llvm.arm.neon.sha256h2(<4 x i32>, <4 x i32>, <4 x i32>) #1
7
8 declare <4 x i32> @llvm.arm.neon.sha256h(<4 x i32>, <4 x i32>, <4 x i32>) #1
9
10 declare <4 x i32> @llvm.arm.neon.sha1su0(<4 x i32>, <4 x i32>, <4 x i32>) #1
11
12 declare <4 x i32> @llvm.arm.neon.sha1m(<4 x i32>, i32, <4 x i32>) #1
13
14 declare <4 x i32> @llvm.arm.neon.sha1p(<4 x i32>, i32, <4 x i32>) #1
15
16 declare <4 x i32> @llvm.arm.neon.sha1c(<4 x i32>, i32, <4 x i32>) #1
17
18 declare <4 x i32> @llvm.arm.neon.sha256su0(<4 x i32>, <4 x i32>) #1
19
20 declare <4 x i32> @llvm.arm.neon.sha1su1(<4 x i32>, <4 x i32>) #1
21
22 declare i32 @llvm.arm.neon.sha1h(i32) #1
23
24 declare <16 x i8> @llvm.arm.neon.aesimc(<16 x i8>) #1
25
26 declare <16 x i8> @llvm.arm.neon.aesmc(<16 x i8>) #1
27
28 declare <16 x i8> @llvm.arm.neon.aesd(<16 x i8>, <16 x i8>) #1
29
30 declare <16 x i8> @llvm.arm.neon.aese(<16 x i8>, <16 x i8>) #1
31
32 define <16 x i8> @test_vaeseq_u8(<16 x i8> %data, <16 x i8> %key) {
33 ; CHECK: test_vaeseq_u8:
34 ; CHECK: aese {{v[0-9]+}}.16b, {{v[0-9]+}}.16b
35 ; CHECK-NO-CRYPTO: Cannot select: intrinsic %llvm.arm.neon.aese
36 entry:
37   %aese.i = tail call <16 x i8> @llvm.arm.neon.aese(<16 x i8> %data, <16 x i8> %key)
38   ret <16 x i8> %aese.i
39 }
40
41 define <16 x i8> @test_vaesdq_u8(<16 x i8> %data, <16 x i8> %key) {
42 ; CHECK: test_vaesdq_u8:
43 ; CHECK: aesd {{v[0-9]+}}.16b, {{v[0-9]+}}.16b
44 entry:
45   %aesd.i = tail call <16 x i8> @llvm.arm.neon.aesd(<16 x i8> %data, <16 x i8> %key)
46   ret <16 x i8> %aesd.i
47 }
48
49 define <16 x i8> @test_vaesmcq_u8(<16 x i8> %data) {
50 ; CHECK: test_vaesmcq_u8:
51 ; CHECK: aesmc {{v[0-9]+}}.16b, {{v[0-9]+}}.16b
52 entry:
53   %aesmc.i = tail call <16 x i8> @llvm.arm.neon.aesmc(<16 x i8> %data)
54   ret <16 x i8> %aesmc.i
55 }
56
57 define <16 x i8> @test_vaesimcq_u8(<16 x i8> %data) {
58 ; CHECK: test_vaesimcq_u8:
59 ; CHECK: aesimc {{v[0-9]+}}.16b, {{v[0-9]+}}.16b
60 entry:
61   %aesimc.i = tail call <16 x i8> @llvm.arm.neon.aesimc(<16 x i8> %data)
62   ret <16 x i8> %aesimc.i
63 }
64
65 define i32 @test_vsha1h_u32(i32 %hash_e) {
66 ; CHECK: test_vsha1h_u32:
67 ; CHECK: sha1h {{s[0-9]+}}, {{s[0-9]+}}
68 entry:
69   %sha1h1.i = tail call i32 @llvm.arm.neon.sha1h(i32 %hash_e)
70   ret i32 %sha1h1.i
71 }
72
73 define <4 x i32> @test_vsha1su1q_u32(<4 x i32> %tw0_3, <4 x i32> %w12_15) {
74 ; CHECK: test_vsha1su1q_u32:
75 ; CHECK: sha1su1 {{v[0-9]+}}.4s, {{v[0-9]+}}.4s
76 entry:
77   %sha1su12.i = tail call <4 x i32> @llvm.arm.neon.sha1su1(<4 x i32> %tw0_3, <4 x i32> %w12_15)
78   ret <4 x i32> %sha1su12.i
79 }
80
81 define <4 x i32> @test_vsha256su0q_u32(<4 x i32> %w0_3, <4 x i32> %w4_7) {
82 ; CHECK: test_vsha256su0q_u32:
83 ; CHECK: sha256su0 {{v[0-9]+}}.4s, {{v[0-9]+}}.4s
84 entry:
85   %sha256su02.i = tail call <4 x i32> @llvm.arm.neon.sha256su0(<4 x i32> %w0_3, <4 x i32> %w4_7)
86   ret <4 x i32> %sha256su02.i
87 }
88
89 define <4 x i32> @test_vsha1cq_u32(<4 x i32> %hash_abcd, i32 %hash_e, <4 x i32> %wk) {
90 ; CHECK: test_vsha1cq_u32:
91 ; CHECK: sha1c {{q[0-9]+}}, {{s[0-9]+}}, {{v[0-9]+}}.4s
92 entry:
93   %sha1c1.i = tail call <4 x i32> @llvm.arm.neon.sha1c(<4 x i32> %hash_abcd, i32 %hash_e, <4 x i32> %wk)
94   ret <4 x i32> %sha1c1.i
95 }
96
97 define <4 x i32> @test_vsha1pq_u32(<4 x i32> %hash_abcd, i32 %hash_e, <4 x i32> %wk) {
98 ; CHECK: test_vsha1pq_u32:
99 ; CHECK: sha1p {{q[0-9]+}}, {{s[0-9]+}}, {{v[0-9]+}}.4s
100 entry:
101   %sha1p1.i = tail call <4 x i32> @llvm.arm.neon.sha1p(<4 x i32> %hash_abcd, i32 %hash_e, <4 x i32> %wk)
102   ret <4 x i32> %sha1p1.i
103 }
104
105 define <4 x i32> @test_vsha1mq_u32(<4 x i32> %hash_abcd, i32 %hash_e, <4 x i32> %wk) {
106 ; CHECK: test_vsha1mq_u32:
107 ; CHECK: sha1m {{q[0-9]+}}, {{s[0-9]+}}, {{v[0-9]+}}.4s
108 entry:
109   %sha1m1.i = tail call <4 x i32> @llvm.arm.neon.sha1m(<4 x i32> %hash_abcd, i32 %hash_e, <4 x i32> %wk)
110   ret <4 x i32> %sha1m1.i
111 }
112
113 define <4 x i32> @test_vsha1su0q_u32(<4 x i32> %w0_3, <4 x i32> %w4_7, <4 x i32> %w8_11) {
114 ; CHECK: test_vsha1su0q_u32:
115 ; CHECK: sha1su0 {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.4s
116 entry:
117   %sha1su03.i = tail call <4 x i32> @llvm.arm.neon.sha1su0(<4 x i32> %w0_3, <4 x i32> %w4_7, <4 x i32> %w8_11)
118   ret <4 x i32> %sha1su03.i
119 }
120
121 define <4 x i32> @test_vsha256hq_u32(<4 x i32> %hash_abcd, <4 x i32> %hash_efgh, <4 x i32> %wk) {
122 ; CHECK: test_vsha256hq_u32:
123 ; CHECK: sha256h {{q[0-9]+}}, {{q[0-9]+}}, {{v[0-9]+}}.4s
124 entry:
125   %sha256h3.i = tail call <4 x i32> @llvm.arm.neon.sha256h(<4 x i32> %hash_abcd, <4 x i32> %hash_efgh, <4 x i32> %wk)
126   ret <4 x i32> %sha256h3.i
127 }
128
129 define <4 x i32> @test_vsha256h2q_u32(<4 x i32> %hash_efgh, <4 x i32> %hash_abcd, <4 x i32> %wk) {
130 ; CHECK: test_vsha256h2q_u32:
131 ; CHECK: sha256h2 {{q[0-9]+}}, {{q[0-9]+}}, {{v[0-9]+}}.4s
132 entry:
133   %sha256h23.i = tail call <4 x i32> @llvm.arm.neon.sha256h2(<4 x i32> %hash_efgh, <4 x i32> %hash_abcd, <4 x i32> %wk)
134   ret <4 x i32> %sha256h23.i
135 }
136
137 define <4 x i32> @test_vsha256su1q_u32(<4 x i32> %tw0_3, <4 x i32> %w8_11, <4 x i32> %w12_15) {
138 ; CHECK: test_vsha256su1q_u32:
139 ; CHECK: sha256su1 {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.4s
140 entry:
141   %sha256su13.i = tail call <4 x i32> @llvm.arm.neon.sha256su1(<4 x i32> %tw0_3, <4 x i32> %w8_11, <4 x i32> %w12_15)
142   ret <4 x i32> %sha256su13.i
143 }
144