-; RUN: llc < %s -mtriple=x86_64-apple-darwin -mcpu=core-avx2 -mattr=avx2,+fma -fp-contract=fast | FileCheck %s\r
-\r
-; CHECK: test_x86_fmadd_ps\r
-; CHECK: vfmadd213ps %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define <4 x float> @test_x86_fmadd_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {\r
- %x = fmul <4 x float> %a0, %a1\r
- %res = fadd <4 x float> %x, %a2\r
- ret <4 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fmsub_ps\r
-; CHECK: fmsub213ps %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define <4 x float> @test_x86_fmsub_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {\r
- %x = fmul <4 x float> %a0, %a1\r
- %res = fsub <4 x float> %x, %a2\r
- ret <4 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fnmadd_ps\r
-; CHECK: fnmadd213ps %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define <4 x float> @test_x86_fnmadd_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {\r
- %x = fmul <4 x float> %a0, %a1\r
- %res = fsub <4 x float> %a2, %x\r
- ret <4 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fnmsub_ps\r
-; CHECK: fnmsub213ps %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define <4 x float> @test_x86_fnmsub_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {\r
- %x = fmul <4 x float> %a0, %a1\r
- %y = fsub <4 x float> <float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00>, %x\r
- %res = fsub <4 x float> %y, %a2\r
- ret <4 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fmadd_ps_y\r
-; CHECK: vfmadd213ps %ymm2, %ymm0, %ymm1\r
-; CHECK: ret\r
-define <8 x float> @test_x86_fmadd_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {\r
- %x = fmul <8 x float> %a0, %a1\r
- %res = fadd <8 x float> %x, %a2\r
- ret <8 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fmsub_ps_y\r
-; CHECK: vfmsub213ps %ymm2, %ymm0, %ymm1\r
-; CHECK: ret\r
-define <8 x float> @test_x86_fmsub_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {\r
- %x = fmul <8 x float> %a0, %a1\r
- %res = fsub <8 x float> %x, %a2\r
- ret <8 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fnmadd_ps_y\r
-; CHECK: vfnmadd213ps %ymm2, %ymm0, %ymm1\r
-; CHECK: ret\r
-define <8 x float> @test_x86_fnmadd_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {\r
- %x = fmul <8 x float> %a0, %a1\r
- %res = fsub <8 x float> %a2, %x\r
- ret <8 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fnmsub_ps_y\r
-; CHECK: vfnmsub213ps %ymm2, %ymm0, %ymm1\r
-; CHECK: ret\r
-define <8 x float> @test_x86_fnmsub_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {\r
- %x = fmul <8 x float> %a0, %a1\r
- %y = fsub <8 x float> <float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00>, %x\r
- %res = fsub <8 x float> %y, %a2\r
- ret <8 x float> %res\r
-}\r
-\r
-; CHECK: test_x86_fmadd_pd_y\r
-; CHECK: vfmadd213pd %ymm2, %ymm0, %ymm1\r
-; CHECK: ret\r
-define <4 x double> @test_x86_fmadd_pd_y(<4 x double> %a0, <4 x double> %a1, <4 x double> %a2) {\r
- %x = fmul <4 x double> %a0, %a1\r
- %res = fadd <4 x double> %x, %a2\r
- ret <4 x double> %res\r
-}\r
-\r
-; CHECK: test_x86_fmsub_pd_y\r
-; CHECK: vfmsub213pd %ymm2, %ymm0, %ymm1\r
-; CHECK: ret\r
-define <4 x double> @test_x86_fmsub_pd_y(<4 x double> %a0, <4 x double> %a1, <4 x double> %a2) {\r
- %x = fmul <4 x double> %a0, %a1\r
- %res = fsub <4 x double> %x, %a2\r
- ret <4 x double> %res\r
-}\r
-\r
-; CHECK: test_x86_fmsub_pd\r
-; CHECK: vfmsub213pd %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define <2 x double> @test_x86_fmsub_pd(<2 x double> %a0, <2 x double> %a1, <2 x double> %a2) {\r
- %x = fmul <2 x double> %a0, %a1\r
- %res = fsub <2 x double> %x, %a2\r
- ret <2 x double> %res\r
-}\r
-\r
-; CHECK: test_x86_fnmadd_ss\r
-; CHECK: vfnmadd213ss %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define float @test_x86_fnmadd_ss(float %a0, float %a1, float %a2) {\r
- %x = fmul float %a0, %a1\r
- %res = fsub float %a2, %x\r
- ret float %res\r
-}\r
-\r
-; CHECK: test_x86_fnmadd_sd\r
-; CHECK: vfnmadd213sd %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define double @test_x86_fnmadd_sd(double %a0, double %a1, double %a2) {\r
- %x = fmul double %a0, %a1\r
- %res = fsub double %a2, %x\r
- ret double %res\r
-}\r
-\r
-; CHECK: test_x86_fmsub_sd\r
-; CHECK: vfmsub213sd %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define double @test_x86_fmsub_sd(double %a0, double %a1, double %a2) {\r
- %x = fmul double %a0, %a1\r
- %res = fsub double %x, %a2\r
- ret double %res\r
-}\r
-\r
-; CHECK: test_x86_fnmsub_ss\r
-; CHECK: vfnmsub213ss %xmm2, %xmm0, %xmm1\r
-; CHECK: ret\r
-define float @test_x86_fnmsub_ss(float %a0, float %a1, float %a2) {\r
- %x = fsub float -0.000000e+00, %a0\r
- %y = fmul float %x, %a1\r
- %res = fsub float %y, %a2\r
- ret float %res\r
-}\r
+; RUN: llc < %s -mtriple=x86_64-apple-darwin -mcpu=core-avx2 -mattr=avx2,+fma -fp-contract=fast | FileCheck %s
+; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mcpu=bdver2 -mattr=-fma4 -fp-contract=fast | FileCheck %s
+; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mcpu=bdver1 -fp-contract=fast | FileCheck %s --check-prefix=CHECK_FMA4
+
+; CHECK: test_x86_fmadd_ps
+; CHECK: vfmadd213ps %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmadd_ps
+; CHECK_FMA4: vfmaddps %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <4 x float> @test_x86_fmadd_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {
+ %x = fmul <4 x float> %a0, %a1
+ %res = fadd <4 x float> %x, %a2
+ ret <4 x float> %res
+}
+
+; CHECK: test_x86_fmsub_ps
+; CHECK: fmsub213ps %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmsub_ps
+; CHECK_FMA4: vfmsubps %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <4 x float> @test_x86_fmsub_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {
+ %x = fmul <4 x float> %a0, %a1
+ %res = fsub <4 x float> %x, %a2
+ ret <4 x float> %res
+}
+
+; CHECK: test_x86_fnmadd_ps
+; CHECK: fnmadd213ps %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fnmadd_ps
+; CHECK_FMA4: vfnmaddps %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <4 x float> @test_x86_fnmadd_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {
+ %x = fmul <4 x float> %a0, %a1
+ %res = fsub <4 x float> %a2, %x
+ ret <4 x float> %res
+}
+
+; CHECK: test_x86_fnmsub_ps
+; CHECK: fnmsub213ps %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fnmsub_ps
+; CHECK_FMA4: fnmsubps %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <4 x float> @test_x86_fnmsub_ps(<4 x float> %a0, <4 x float> %a1, <4 x float> %a2) {
+ %x = fmul <4 x float> %a0, %a1
+ %y = fsub <4 x float> <float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00>, %x
+ %res = fsub <4 x float> %y, %a2
+ ret <4 x float> %res
+}
+
+; CHECK: test_x86_fmadd_ps_y
+; CHECK: vfmadd213ps %ymm2, %ymm1, %ymm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmadd_ps_y
+; CHECK_FMA4: vfmaddps %ymm2, %ymm1, %ymm0, %ymm0
+; CHECK_FMA4: ret
+define <8 x float> @test_x86_fmadd_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {
+ %x = fmul <8 x float> %a0, %a1
+ %res = fadd <8 x float> %x, %a2
+ ret <8 x float> %res
+}
+
+; CHECK: test_x86_fmsub_ps_y
+; CHECK: vfmsub213ps %ymm2, %ymm1, %ymm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmsub_ps_y
+; CHECK_FMA4: vfmsubps %ymm2, %ymm1, %ymm0, %ymm0
+; CHECK_FMA4: ret
+define <8 x float> @test_x86_fmsub_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {
+ %x = fmul <8 x float> %a0, %a1
+ %res = fsub <8 x float> %x, %a2
+ ret <8 x float> %res
+}
+
+; CHECK: test_x86_fnmadd_ps_y
+; CHECK: vfnmadd213ps %ymm2, %ymm1, %ymm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fnmadd_ps_y
+; CHECK_FMA4: vfnmaddps %ymm2, %ymm1, %ymm0, %ymm0
+; CHECK_FMA4: ret
+define <8 x float> @test_x86_fnmadd_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {
+ %x = fmul <8 x float> %a0, %a1
+ %res = fsub <8 x float> %a2, %x
+ ret <8 x float> %res
+}
+
+; CHECK: test_x86_fnmsub_ps_y
+; CHECK: vfnmsub213ps %ymm2, %ymm1, %ymm0
+; CHECK: ret
+define <8 x float> @test_x86_fnmsub_ps_y(<8 x float> %a0, <8 x float> %a1, <8 x float> %a2) {
+ %x = fmul <8 x float> %a0, %a1
+ %y = fsub <8 x float> <float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00, float -0.000000e+00>, %x
+ %res = fsub <8 x float> %y, %a2
+ ret <8 x float> %res
+}
+
+; CHECK: test_x86_fmadd_pd_y
+; CHECK: vfmadd213pd %ymm2, %ymm1, %ymm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmadd_pd_y
+; CHECK_FMA4: vfmaddpd %ymm2, %ymm1, %ymm0, %ymm0
+; CHECK_FMA4: ret
+define <4 x double> @test_x86_fmadd_pd_y(<4 x double> %a0, <4 x double> %a1, <4 x double> %a2) {
+ %x = fmul <4 x double> %a0, %a1
+ %res = fadd <4 x double> %x, %a2
+ ret <4 x double> %res
+}
+
+; CHECK: test_x86_fmsub_pd_y
+; CHECK: vfmsub213pd %ymm2, %ymm1, %ymm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmsub_pd_y
+; CHECK_FMA4: vfmsubpd %ymm2, %ymm1, %ymm0, %ymm0
+; CHECK_FMA4: ret
+define <4 x double> @test_x86_fmsub_pd_y(<4 x double> %a0, <4 x double> %a1, <4 x double> %a2) {
+ %x = fmul <4 x double> %a0, %a1
+ %res = fsub <4 x double> %x, %a2
+ ret <4 x double> %res
+}
+
+; CHECK: test_x86_fmsub_pd
+; CHECK: vfmsub213pd %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmsub_pd
+; CHECK_FMA4: vfmsubpd %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <2 x double> @test_x86_fmsub_pd(<2 x double> %a0, <2 x double> %a1, <2 x double> %a2) {
+ %x = fmul <2 x double> %a0, %a1
+ %res = fsub <2 x double> %x, %a2
+ ret <2 x double> %res
+}
+
+; CHECK: test_x86_fnmadd_ss
+; CHECK: vfnmadd213ss %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fnmadd_ss
+; CHECK_FMA4: vfnmaddss %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define float @test_x86_fnmadd_ss(float %a0, float %a1, float %a2) {
+ %x = fmul float %a0, %a1
+ %res = fsub float %a2, %x
+ ret float %res
+}
+
+; CHECK: test_x86_fnmadd_sd
+; CHECK: vfnmadd213sd %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fnmadd_sd
+; CHECK_FMA4: vfnmaddsd %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define double @test_x86_fnmadd_sd(double %a0, double %a1, double %a2) {
+ %x = fmul double %a0, %a1
+ %res = fsub double %a2, %x
+ ret double %res
+}
+
+; CHECK: test_x86_fmsub_sd
+; CHECK: vfmsub213sd %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmsub_sd
+; CHECK_FMA4: vfmsubsd %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define double @test_x86_fmsub_sd(double %a0, double %a1, double %a2) {
+ %x = fmul double %a0, %a1
+ %res = fsub double %x, %a2
+ ret double %res
+}
+
+; CHECK: test_x86_fnmsub_ss
+; CHECK: vfnmsub213ss %xmm2, %xmm1, %xmm0
+; CHECK: ret
+; CHECK_FMA4: test_x86_fnmsub_ss
+; CHECK_FMA4: vfnmsubss %xmm2, %xmm1, %xmm0, %xmm0
+; CHECK_FMA4: ret
+define float @test_x86_fnmsub_ss(float %a0, float %a1, float %a2) {
+ %x = fsub float -0.000000e+00, %a0
+ %y = fmul float %x, %a1
+ %res = fsub float %y, %a2
+ ret float %res
+}
+
+; CHECK: test_x86_fmadd_ps_load
+; CHECK: vmovaps (%rdi), %xmm2
+; CHECK: vfmadd213ps %xmm1, %xmm0, %xmm2
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmadd_ps_load
+; CHECK_FMA4: vfmaddps %xmm1, (%rdi), %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <4 x float> @test_x86_fmadd_ps_load(<4 x float>* %a0, <4 x float> %a1, <4 x float> %a2) {
+ %x = load <4 x float>* %a0
+ %y = fmul <4 x float> %x, %a1
+ %res = fadd <4 x float> %y, %a2
+ ret <4 x float> %res
+}
+
+; CHECK: test_x86_fmsub_ps_load
+; CHECK: vmovaps (%rdi), %xmm2
+; CHECK: fmsub213ps %xmm1, %xmm0, %xmm2
+; CHECK: ret
+; CHECK_FMA4: test_x86_fmsub_ps_load
+; CHECK_FMA4: vfmsubps %xmm1, (%rdi), %xmm0, %xmm0
+; CHECK_FMA4: ret
+define <4 x float> @test_x86_fmsub_ps_load(<4 x float>* %a0, <4 x float> %a1, <4 x float> %a2) {
+ %x = load <4 x float>* %a0
+ %y = fmul <4 x float> %x, %a1
+ %res = fsub <4 x float> %y, %a2
+ ret <4 x float> %res
+}
+