Remove the unaligned load intrinsics in favor of using native unaligned loads.
[oota-llvm.git] / test / Assembler / vector-shift.ll
1 ; RUN: llvm-as < %s | llvm-dis | llvm-as | llvm-dis | grep shl | count 1
2 ; RUN: llvm-as < %s | llvm-dis | llvm-as | llvm-dis | grep ashr | count 1
3 ; RUN: llvm-as < %s | llvm-dis | llvm-as | llvm-dis | grep lshr | count 1
4
5 define <4 x i32> @foo(<4 x i32> %a, <4 x i32> %b) nounwind  {
6 entry:
7         %cmp = shl <4 x i32> %a, %b             ; <4 x i32> [#uses=1]
8         ret <4 x i32> %cmp
9 }
10
11 define <4 x i32> @bar(<4 x i32> %a, <4 x i32> %b) nounwind  {
12 entry:
13         %cmp = lshr <4 x i32> %a, %b            ; <4 x i32> [#uses=1]
14         ret <4 x i32> %cmp
15 }
16
17 define <4 x i32> @baz(<4 x i32> %a, <4 x i32> %b) nounwind  {
18 entry:
19         %cmp = ashr <4 x i32> %a, %b            ; <4 x i32> [#uses=1]
20         ret <4 x i32> %cmp
21 }
22
23 ; Constant expressions: these should be folded.
24 define <2 x i64> @foo_ce() nounwind {
25   ret <2 x i64> shl (<2 x i64> <i64 5, i64 6>, <2 x i64> <i64 3, i64 5>)
26 }
27 define <2 x i64> @bar_ce() nounwind {
28   ret <2 x i64> lshr (<2 x i64> <i64 340, i64 380>, <2 x i64> <i64 3, i64 5>)
29 }
30 define <2 x i64> @baz_ce() nounwind {
31   ret <2 x i64> ashr (<2 x i64> <i64 573, i64 411>, <2 x i64> <i64 3, i64 5>)
32 }