Lines Matching refs:tmp1

6 	%tmp1 = load <8 x i8>, <8 x i8>* %A
8 %tmp3 = shl <8 x i8> %tmp1, %tmp2
15 %tmp1 = load <4 x i16>, <4 x i16>* %A
17 %tmp3 = shl <4 x i16> %tmp1, %tmp2
24 %tmp1 = load <2 x i32>, <2 x i32>* %A
26 %tmp3 = shl <2 x i32> %tmp1, %tmp2
33 %tmp1 = load <1 x i64>, <1 x i64>* %A
35 %tmp3 = shl <1 x i64> %tmp1, %tmp2
42 %tmp1 = load <8 x i8>, <8 x i8>* %A
43 %tmp2 = shl <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
50 %tmp1 = load <4 x i16>, <4 x i16>* %A
51 %tmp2 = shl <4 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15 >
58 %tmp1 = load <2 x i32>, <2 x i32>* %A
59 %tmp2 = shl <2 x i32> %tmp1, < i32 31, i32 31 >
66 %tmp1 = load <1 x i64>, <1 x i64>* %A
67 %tmp2 = shl <1 x i64> %tmp1, < i64 63 >
74 %tmp1 = load <16 x i8>, <16 x i8>* %A
76 %tmp3 = shl <16 x i8> %tmp1, %tmp2
83 %tmp1 = load <8 x i16>, <8 x i16>* %A
85 %tmp3 = shl <8 x i16> %tmp1, %tmp2
92 %tmp1 = load <4 x i32>, <4 x i32>* %A
94 %tmp3 = shl <4 x i32> %tmp1, %tmp2
101 %tmp1 = load <2 x i64>, <2 x i64>* %A
103 %tmp3 = shl <2 x i64> %tmp1, %tmp2
110 %tmp1 = load <16 x i8>, <16 x i8>* %A
111 …%tmp2 = shl <16 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i…
118 %tmp1 = load <8 x i16>, <8 x i16>* %A
119 %tmp2 = shl <8 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
126 %tmp1 = load <4 x i32>, <4 x i32>* %A
127 %tmp2 = shl <4 x i32> %tmp1, < i32 31, i32 31, i32 31, i32 31 >
134 %tmp1 = load <2 x i64>, <2 x i64>* %A
135 %tmp2 = shl <2 x i64> %tmp1, < i64 63, i64 63 >
143 %tmp1 = load <8 x i8>, <8 x i8>* %A
145 %tmp3 = lshr <8 x i8> %tmp1, %tmp2
153 %tmp1 = load <4 x i16>, <4 x i16>* %A
155 %tmp3 = lshr <4 x i16> %tmp1, %tmp2
163 %tmp1 = load <2 x i32>, <2 x i32>* %A
165 %tmp3 = lshr <2 x i32> %tmp1, %tmp2
173 %tmp1 = load <1 x i64>, <1 x i64>* %A
175 %tmp3 = lshr <1 x i64> %tmp1, %tmp2
182 %tmp1 = load <8 x i8>, <8 x i8>* %A
183 %tmp2 = lshr <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
190 %tmp1 = load <4 x i16>, <4 x i16>* %A
191 %tmp2 = lshr <4 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15 >
198 %tmp1 = load <2 x i32>, <2 x i32>* %A
199 %tmp2 = lshr <2 x i32> %tmp1, < i32 31, i32 31 >
206 %tmp1 = load <1 x i64>, <1 x i64>* %A
207 %tmp2 = lshr <1 x i64> %tmp1, < i64 63 >
215 %tmp1 = load <16 x i8>, <16 x i8>* %A
217 %tmp3 = lshr <16 x i8> %tmp1, %tmp2
225 %tmp1 = load <8 x i16>, <8 x i16>* %A
227 %tmp3 = lshr <8 x i16> %tmp1, %tmp2
235 %tmp1 = load <4 x i32>, <4 x i32>* %A
237 %tmp3 = lshr <4 x i32> %tmp1, %tmp2
245 %tmp1 = load <2 x i64>, <2 x i64>* %A
247 %tmp3 = lshr <2 x i64> %tmp1, %tmp2
254 %tmp1 = load <16 x i8>, <16 x i8>* %A
255 …%tmp2 = lshr <16 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
262 %tmp1 = load <8 x i16>, <8 x i16>* %A
263 %tmp2 = lshr <8 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
270 %tmp1 = load <4 x i32>, <4 x i32>* %A
271 %tmp2 = lshr <4 x i32> %tmp1, < i32 31, i32 31, i32 31, i32 31 >
278 %tmp1 = load <2 x i64>, <2 x i64>* %A
279 %tmp2 = lshr <2 x i64> %tmp1, < i64 63, i64 63 >
294 %tmp1 = load <8 x i8>, <8 x i8>* %A
296 %tmp3 = ashr <8 x i8> %tmp1, %tmp2
304 %tmp1 = load <4 x i16>, <4 x i16>* %A
306 %tmp3 = ashr <4 x i16> %tmp1, %tmp2
314 %tmp1 = load <2 x i32>, <2 x i32>* %A
316 %tmp3 = ashr <2 x i32> %tmp1, %tmp2
324 %tmp1 = load <1 x i64>, <1 x i64>* %A
326 %tmp3 = ashr <1 x i64> %tmp1, %tmp2
333 %tmp1 = load <8 x i8>, <8 x i8>* %A
334 %tmp2 = ashr <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 >
341 %tmp1 = load <4 x i16>, <4 x i16>* %A
342 %tmp2 = ashr <4 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15 >
349 %tmp1 = load <2 x i32>, <2 x i32>* %A
350 %tmp2 = ashr <2 x i32> %tmp1, < i32 31, i32 31 >
357 %tmp1 = load <1 x i64>, <1 x i64>* %A
358 %tmp2 = ashr <1 x i64> %tmp1, < i64 63 >
366 %tmp1 = load <16 x i8>, <16 x i8>* %A
368 %tmp3 = ashr <16 x i8> %tmp1, %tmp2
376 %tmp1 = load <8 x i16>, <8 x i16>* %A
378 %tmp3 = ashr <8 x i16> %tmp1, %tmp2
386 %tmp1 = load <4 x i32>, <4 x i32>* %A
388 %tmp3 = ashr <4 x i32> %tmp1, %tmp2
396 %tmp1 = load <2 x i64>, <2 x i64>* %A
398 %tmp3 = ashr <2 x i64> %tmp1, %tmp2
405 %tmp1 = load <16 x i8>, <16 x i8>* %A
406 …%tmp2 = ashr <16 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, …
413 %tmp1 = load <8 x i16>, <8 x i16>* %A
414 %tmp2 = ashr <8 x i16> %tmp1, < i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15, i16 15 >
421 %tmp1 = load <4 x i32>, <4 x i32>* %A
422 %tmp2 = ashr <4 x i32> %tmp1, < i32 31, i32 31, i32 31, i32 31 >
429 %tmp1 = load <2 x i64>, <2 x i64>* %A
430 %tmp2 = ashr <2 x i64> %tmp1, < i64 63, i64 63 >