1; RUN: llc -mtriple=aarch64-linux-gnu -mattr=+sve2 < %s | FileCheck %s 2 3; 4; SADALP 5; 6 7define <vscale x 8 x i16> @sadalp_i8(<vscale x 8 x i1> %pg, <vscale x 8 x i16> %a, <vscale x 16 x i8> %b) { 8; CHECK-LABEL: sadalp_i8: 9; CHECK: sadalp z0.h, p0/m, z1.b 10; CHECK-NEXT: ret 11 %out = call <vscale x 8 x i16> @llvm.aarch64.sve.sadalp.nxv8i16(<vscale x 8 x i1> %pg, 12 <vscale x 8 x i16> %a, 13 <vscale x 16 x i8> %b) 14 ret <vscale x 8 x i16> %out 15} 16 17define <vscale x 4 x i32> @sadalp_i16(<vscale x 4 x i1> %pg, <vscale x 4 x i32> %a, <vscale x 8 x i16> %b) { 18; CHECK-LABEL: sadalp_i16: 19; CHECK: sadalp z0.s, p0/m, z1.h 20; CHECK-NEXT: ret 21 %out = call <vscale x 4 x i32> @llvm.aarch64.sve.sadalp.nxv4i32(<vscale x 4 x i1> %pg, 22 <vscale x 4 x i32> %a, 23 <vscale x 8 x i16> %b) 24 ret <vscale x 4 x i32> %out 25} 26 27define <vscale x 2 x i64> @sadalp_i32(<vscale x 2 x i1> %pg, <vscale x 2 x i64> %a, <vscale x 4 x i32> %b) { 28; CHECK-LABEL: sadalp_i32: 29; CHECK: sadalp z0.d, p0/m, z1.s 30; CHECK-NEXT: ret 31 %out = call <vscale x 2 x i64> @llvm.aarch64.sve.sadalp.nxv2i64(<vscale x 2 x i1> %pg, 32 <vscale x 2 x i64> %a, 33 <vscale x 4 x i32> %b) 34 ret <vscale x 2 x i64> %out 35} 36 37; 38; UADALP 39; 40 41define <vscale x 8 x i16> @uadalp_i8(<vscale x 8 x i1> %pg, <vscale x 8 x i16> %a, <vscale x 16 x i8> %b) { 42; CHECK-LABEL: uadalp_i8: 43; CHECK: uadalp z0.h, p0/m, z1.b 44; CHECK-NEXT: ret 45 %out = call <vscale x 8 x i16> @llvm.aarch64.sve.uadalp.nxv8i16(<vscale x 8 x i1> %pg, 46 <vscale x 8 x i16> %a, 47 <vscale x 16 x i8> %b) 48 ret <vscale x 8 x i16> %out 49} 50 51define <vscale x 4 x i32> @uadalp_i16(<vscale x 4 x i1> %pg, <vscale x 4 x i32> %a, <vscale x 8 x i16> %b) { 52; CHECK-LABEL: uadalp_i16: 53; CHECK: uadalp z0.s, p0/m, z1.h 54; CHECK-NEXT: ret 55 %out = call <vscale x 4 x i32> @llvm.aarch64.sve.uadalp.nxv4i32(<vscale x 4 x i1> %pg, 56 <vscale x 4 x i32> %a, 57 <vscale x 8 x i16> %b) 58 ret <vscale x 4 x i32> %out 59} 60 61define <vscale x 2 x i64> @uadalp_i32(<vscale x 2 x i1> %pg, <vscale x 2 x i64> %a, <vscale x 4 x i32> %b) { 62; CHECK-LABEL: uadalp_i32: 63; CHECK: uadalp z0.d, p0/m, z1.s 64; CHECK-NEXT: ret 65 %out = call <vscale x 2 x i64> @llvm.aarch64.sve.uadalp.nxv2i64(<vscale x 2 x i1> %pg, 66 <vscale x 2 x i64> %a, 67 <vscale x 4 x i32> %b) 68 ret <vscale x 2 x i64> %out 69} 70 71declare <vscale x 8 x i16> @llvm.aarch64.sve.sadalp.nxv8i16(<vscale x 8 x i1>, <vscale x 8 x i16>, <vscale x 16 x i8>) 72declare <vscale x 4 x i32> @llvm.aarch64.sve.sadalp.nxv4i32(<vscale x 4 x i1>, <vscale x 4 x i32>, <vscale x 8 x i16>) 73declare <vscale x 2 x i64> @llvm.aarch64.sve.sadalp.nxv2i64(<vscale x 2 x i1>, <vscale x 2 x i64>, <vscale x 4 x i32>) 74 75declare <vscale x 8 x i16> @llvm.aarch64.sve.uadalp.nxv8i16(<vscale x 8 x i1>, <vscale x 8 x i16>, <vscale x 16 x i8>) 76declare <vscale x 4 x i32> @llvm.aarch64.sve.uadalp.nxv4i32(<vscale x 4 x i1>, <vscale x 4 x i32>, <vscale x 8 x i16>) 77declare <vscale x 2 x i64> @llvm.aarch64.sve.uadalp.nxv2i64(<vscale x 2 x i1>, <vscale x 2 x i64>, <vscale x 4 x i32>) 78