Custom lower unaligned 32 bit stores and loads into libcalls. This is
[oota-llvm.git] / test / CodeGen / XCore / unaligned_load.ll
1 ; RUN: llvm-as < %s | llc -march=xcore > %t1.s
2 ; RUN: grep "bl __misaligned_load" %t1.s | count 1
3
4 ; Byte aligned load. Expands to call to __misaligned_load.
5 define i32 @align1(i32* %p) nounwind {
6 entry:
7         %0 = load i32* %p, align 1              ; <i32> [#uses=1]
8         ret i32 %0
9 }