1; RUN: opt -mtriple=arm-none-none-eabi -mcpu=cortex-m33 < %s -arm-parallel-dsp -S | FileCheck %s
2; RUN: opt -mtriple=armeb-none-none-eabi -mcpu=cortex-m33 < %s -arm-parallel-dsp -S | FileCheck %s --check-prefix=CHECK-UNSUPPORTED
3;
4; The Cortex-M0 does not support unaligned accesses:
5; RUN: opt -mtriple=arm-none-none-eabi -mcpu=cortex-m0 < %s -arm-parallel-dsp -S | FileCheck %s --check-prefix=CHECK-UNSUPPORTED
6;
7; Check DSP extension:
8; RUN: opt -mtriple=arm-none-none-eabi -mcpu=cortex-m33 -mattr=-dsp < %s -arm-parallel-dsp -S | FileCheck %s --check-prefix=CHECK-UNSUPPORTED
9
10define dso_local i64 @OneReduction(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
11;
12; CHECK-LABEL: @OneReduction
13; CHECK:  %mac1{{\.}}026 = phi i64 [ [[V8:%[0-9]+]], %for.body ], [ 0, %for.body.preheader ]
14; CHECK:  [[V6:%[0-9]+]] = bitcast i16* %arrayidx to i32*
15; CHECK:  [[V7:%[0-9]+]] = load i32, i32* [[V6]], align 2
16; CHECK:  [[V4:%[0-9]+]] = bitcast i16* %arrayidx3 to i32*
17; CHECK:  [[V5:%[0-9]+]] = load i32, i32* [[V4]], align 2
18; CHECK:  [[V8]] = call i64 @llvm.arm.smlald(i32 [[V5]], i32 [[V7]], i64 %mac1{{\.}}026)
19; CHECK-NOT: call i64 @llvm.arm.smlald
20;
21; CHECK-UNSUPPORTED-NOT:  call i64 @llvm.arm.smlald
22;
23entry:
24  %cmp24 = icmp sgt i32 %arg, 0
25  br i1 %cmp24, label %for.body.preheader, label %for.cond.cleanup
26
27for.body.preheader:
28  %.pre = load i16, i16* %arg3, align 2
29  %.pre27 = load i16, i16* %arg2, align 2
30  br label %for.body
31
32for.cond.cleanup:
33  %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add11, %for.body ]
34  ret i64 %mac1.0.lcssa
35
36for.body:
37; One reduction statement here:
38  %mac1.026 = phi i64 [ %add11, %for.body ], [ 0, %for.body.preheader ]
39
40  %i.025 = phi i32 [ %add, %for.body ], [ 0, %for.body.preheader ]
41  %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.025
42  %0 = load i16, i16* %arrayidx, align 2
43  %add = add nuw nsw i32 %i.025, 1
44  %arrayidx1 = getelementptr inbounds i16, i16* %arg3, i32 %add
45  %1 = load i16, i16* %arrayidx1, align 2
46  %arrayidx3 = getelementptr inbounds i16, i16* %arg2, i32 %i.025
47  %2 = load i16, i16* %arrayidx3, align 2
48  %conv = sext i16 %2 to i64
49  %conv4 = sext i16 %0 to i64
50  %mul = mul nsw i64 %conv, %conv4
51  %arrayidx6 = getelementptr inbounds i16, i16* %arg2, i32 %add
52  %3 = load i16, i16* %arrayidx6, align 2
53  %conv7 = sext i16 %3 to i64
54  %conv8 = sext i16 %1 to i64
55  %mul9 = mul nsw i64 %conv7, %conv8
56  %add10 = add i64 %mul, %mac1.026
57
58; Here the Mul is the LHS, and the Add the RHS.
59  %add11 = add i64 %mul9, %add10
60
61  %exitcond = icmp ne i32 %add, %arg
62  br i1 %exitcond, label %for.body, label %for.cond.cleanup
63}
64
65define dso_local arm_aapcs_vfpcc i64 @TwoReductions(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
66;
67; CHECK-LABEL: @TwoReductions
68;
69; CHECK:  %mac1{{\.}}058 = phi i64 [ [[V10:%[0-9]+]], %for.body ], [ 0, %for.body.preheader ]
70; CHECK:  %mac2{{\.}}057 = phi i64 [ [[V17:%[0-9]+]], %for.body ], [ 0, %for.body.preheader ]
71; CHECK:  [[V10]] = call i64 @llvm.arm.smlald(i32 %{{.*}}, i32 %{{.*}}, i64 %mac1{{\.}}058)
72; CHECK:  [[V17]] = call i64 @llvm.arm.smlald(i32 %{{.*}}, i32 %{{.*}}, i64 %mac2{{\.}}057)
73; CHECK-NOT: call i64 @llvm.arm.smlald
74;
75entry:
76  %cmp55 = icmp sgt i32 %arg, 0
77  br i1 %cmp55, label %for.body.preheader, label %for.cond.cleanup
78
79for.cond.cleanup:
80  %mac2.0.lcssa = phi i64 [ 0, %entry ], [ %add28, %for.body ]
81  %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add16, %for.body ]
82  %add30 = add nsw i64 %mac1.0.lcssa, %mac2.0.lcssa
83  ret i64 %add30
84
85for.body.preheader:
86  br label %for.body
87
88for.body:
89; And two reduction statements here:
90  %mac1.058 = phi i64 [ %add16, %for.body ], [ 0, %for.body.preheader ]
91  %mac2.057 = phi i64 [ %add28, %for.body ], [ 0, %for.body.preheader ]
92
93  %i.056 = phi i32 [ %add29, %for.body ], [ 0, %for.body.preheader ]
94  %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.056
95  %0 = load i16, i16* %arrayidx, align 2
96  %add1 = or i32 %i.056, 1
97  %arrayidx2 = getelementptr inbounds i16, i16* %arg3, i32 %add1
98  %1 = load i16, i16* %arrayidx2, align 2
99  %add3 = or i32 %i.056, 2
100  %arrayidx4 = getelementptr inbounds i16, i16* %arg3, i32 %add3
101  %2 = load i16, i16* %arrayidx4, align 2
102
103  %add5 = or i32 %i.056, 3
104  %arrayidx6 = getelementptr inbounds i16, i16* %arg3, i32 %add5
105  %3 = load i16, i16* %arrayidx6, align 2
106  %arrayidx8 = getelementptr inbounds i16, i16* %arg2, i32 %i.056
107  %4 = load i16, i16* %arrayidx8, align 2
108  %conv = sext i16 %4 to i64
109  %conv9 = sext i16 %0 to i64
110  %mul = mul nsw i64 %conv, %conv9
111  %arrayidx11 = getelementptr inbounds i16, i16* %arg2, i32 %add1
112  %5 = load i16, i16* %arrayidx11, align 2
113  %conv12 = sext i16 %5 to i64
114  %conv13 = sext i16 %1 to i64
115  %mul14 = mul nsw i64 %conv12, %conv13
116  %add15 = add i64 %mul, %mac1.058
117  %add16 = add i64 %add15, %mul14
118  %arrayidx18 = getelementptr inbounds i16, i16* %arg2, i32 %add3
119  %6 = load i16, i16* %arrayidx18, align 2
120  %conv19 = sext i16 %6 to i64
121  %conv20 = sext i16 %2 to i64
122  %mul21 = mul nsw i64 %conv19, %conv20
123  %arrayidx23 = getelementptr inbounds i16, i16* %arg2, i32 %add5
124  %7 = load i16, i16* %arrayidx23, align 2
125  %conv24 = sext i16 %7 to i64
126  %conv25 = sext i16 %3 to i64
127  %mul26 = mul nsw i64 %conv24, %conv25
128  %add27 = add i64 %mul21, %mac2.057
129  %add28 = add i64 %add27, %mul26
130  %add29 = add nuw nsw i32 %i.056, 4
131  %cmp = icmp slt i32 %add29, %arg
132  br i1 %cmp, label %for.body, label %for.cond.cleanup
133}
134
135define i64 @reduction_zext(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
136; CHECK-LABEL: @reduction_zext
137; CHECK-NOT: call i64 @llvm.arm.smlald
138; CHECK-NOT: call i32 @llvm.arm.smlad
139entry:
140  %cmp24 = icmp sgt i32 %arg, 0
141  br i1 %cmp24, label %for.body.preheader, label %for.cond.cleanup
142
143for.body.preheader:
144  %.pre = load i16, i16* %arg3, align 2
145  %.pre27 = load i16, i16* %arg2, align 2
146  br label %for.body
147
148for.cond.cleanup:
149  %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add11, %for.body ]
150  ret i64 %mac1.0.lcssa
151
152for.body:
153  %mac1.026 = phi i64 [ %add11, %for.body ], [ 0, %for.body.preheader ]
154  %i.025 = phi i32 [ %add, %for.body ], [ 0, %for.body.preheader ]
155  %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.025
156  %0 = load i16, i16* %arrayidx, align 2
157  %add = add nuw nsw i32 %i.025, 1
158  %arrayidx1 = getelementptr inbounds i16, i16* %arg3, i32 %add
159  %1 = load i16, i16* %arrayidx1, align 2
160  %arrayidx3 = getelementptr inbounds i16, i16* %arg2, i32 %i.025
161  %2 = load i16, i16* %arrayidx3, align 2
162  %conv = sext i16 %2 to i64
163  %conv4 = zext i16 %0 to i64
164  %mul = mul nsw i64 %conv, %conv4
165  %arrayidx6 = getelementptr inbounds i16, i16* %arg2, i32 %add
166  %3 = load i16, i16* %arrayidx6, align 2
167  %conv7 = sext i16 %3 to i64
168  %conv8 = zext i16 %1 to i64
169  %mul9 = mul nsw i64 %conv7, %conv8
170  %add10 = add i64 %mul, %mac1.026
171  %add11 = add i64 %mul9, %add10
172  %exitcond = icmp ne i32 %add, %arg
173  br i1 %exitcond, label %for.body, label %for.cond.cleanup
174}
175