1; RUN: llc -mtriple=aarch64-linux-gnu -mattr=+sve2 < %s | FileCheck %s
2
3;
4; SADALP
5;
6
7define <vscale x 8 x i16> @sadalp_i8(<vscale x 8 x i1> %pg, <vscale x 8 x i16> %a, <vscale x 16 x i8> %b) {
8; CHECK-LABEL: sadalp_i8:
9; CHECK: sadalp z0.h, p0/m, z1.b
10; CHECK-NEXT: ret
11  %out = call <vscale x 8 x i16> @llvm.aarch64.sve.sadalp.nxv8i16(<vscale x 8 x i1> %pg,
12                                                                  <vscale x 8 x i16> %a,
13                                                                  <vscale x 16 x i8> %b)
14  ret <vscale x 8 x i16> %out
15}
16
17define <vscale x 4 x i32> @sadalp_i16(<vscale x 4 x i1> %pg, <vscale x 4 x i32> %a, <vscale x 8 x i16> %b) {
18; CHECK-LABEL: sadalp_i16:
19; CHECK: sadalp z0.s, p0/m, z1.h
20; CHECK-NEXT: ret
21  %out = call <vscale x 4 x i32> @llvm.aarch64.sve.sadalp.nxv4i32(<vscale x 4 x i1> %pg,
22                                                                  <vscale x 4 x i32> %a,
23                                                                  <vscale x 8 x i16> %b)
24  ret <vscale x 4 x i32> %out
25}
26
27define <vscale x 2 x i64> @sadalp_i32(<vscale x 2 x i1> %pg, <vscale x 2 x i64> %a, <vscale x 4 x i32> %b) {
28; CHECK-LABEL: sadalp_i32:
29; CHECK: sadalp z0.d, p0/m, z1.s
30; CHECK-NEXT: ret
31  %out = call <vscale x 2 x i64> @llvm.aarch64.sve.sadalp.nxv2i64(<vscale x 2 x i1> %pg,
32                                                                  <vscale x 2 x i64> %a,
33                                                                  <vscale x 4 x i32> %b)
34  ret <vscale x 2 x i64> %out
35}
36
37;
38; UADALP
39;
40
41define <vscale x 8 x i16> @uadalp_i8(<vscale x 8 x i1> %pg, <vscale x 8 x i16> %a, <vscale x 16 x i8> %b) {
42; CHECK-LABEL: uadalp_i8:
43; CHECK: uadalp z0.h, p0/m, z1.b
44; CHECK-NEXT: ret
45  %out = call <vscale x 8 x i16> @llvm.aarch64.sve.uadalp.nxv8i16(<vscale x 8 x i1> %pg,
46                                                                  <vscale x 8 x i16> %a,
47                                                                  <vscale x 16 x i8> %b)
48  ret <vscale x 8 x i16> %out
49}
50
51define <vscale x 4 x i32> @uadalp_i16(<vscale x 4 x i1> %pg, <vscale x 4 x i32> %a, <vscale x 8 x i16> %b) {
52; CHECK-LABEL: uadalp_i16:
53; CHECK: uadalp z0.s, p0/m, z1.h
54; CHECK-NEXT: ret
55  %out = call <vscale x 4 x i32> @llvm.aarch64.sve.uadalp.nxv4i32(<vscale x 4 x i1> %pg,
56                                                                  <vscale x 4 x i32> %a,
57                                                                  <vscale x 8 x i16> %b)
58  ret <vscale x 4 x i32> %out
59}
60
61define <vscale x 2 x i64> @uadalp_i32(<vscale x 2 x i1> %pg, <vscale x 2 x i64> %a, <vscale x 4 x i32> %b) {
62; CHECK-LABEL: uadalp_i32:
63; CHECK: uadalp z0.d, p0/m, z1.s
64; CHECK-NEXT: ret
65  %out = call <vscale x 2 x i64> @llvm.aarch64.sve.uadalp.nxv2i64(<vscale x 2 x i1> %pg,
66                                                                  <vscale x 2 x i64> %a,
67                                                                  <vscale x 4 x i32> %b)
68  ret <vscale x 2 x i64> %out
69}
70
71declare <vscale x 8 x i16> @llvm.aarch64.sve.sadalp.nxv8i16(<vscale x 8 x i1>, <vscale x 8 x i16>, <vscale x 16 x i8>)
72declare <vscale x 4 x i32> @llvm.aarch64.sve.sadalp.nxv4i32(<vscale x 4 x i1>, <vscale x 4 x i32>, <vscale x 8 x i16>)
73declare <vscale x 2 x i64> @llvm.aarch64.sve.sadalp.nxv2i64(<vscale x 2 x i1>, <vscale x 2 x i64>, <vscale x 4 x i32>)
74
75declare <vscale x 8 x i16> @llvm.aarch64.sve.uadalp.nxv8i16(<vscale x 8 x i1>, <vscale x 8 x i16>, <vscale x 16 x i8>)
76declare <vscale x 4 x i32> @llvm.aarch64.sve.uadalp.nxv4i32(<vscale x 4 x i1>, <vscale x 4 x i32>, <vscale x 8 x i16>)
77declare <vscale x 2 x i64> @llvm.aarch64.sve.uadalp.nxv2i64(<vscale x 2 x i1>, <vscale x 2 x i64>, <vscale x 4 x i32>)
78