Lines Matching refs:AS2

213 	AS2(	mov 	%%ebx, -20(%%esp))  in VHASH_Update_SSE2()
217 AS2( mov %0, %%ebx) in VHASH_Update_SSE2()
222 AS2( mov ebx, [L1KeyLength]) in VHASH_Update_SSE2()
223 AS2( mov dl, [isFirstBlock]) in VHASH_Update_SSE2()
225 AS2( mov ecx, this) in VHASH_Update_SSE2()
226 AS2( mov ebx, [ecx+m_L1KeyLength]) in VHASH_Update_SSE2()
227 AS2( mov dl, [ecx+m_isFirstBlock]) in VHASH_Update_SSE2()
229 AS2( mov eax, tagPart) in VHASH_Update_SSE2()
230 AS2( shl eax, 4) in VHASH_Update_SSE2()
231 AS2( mov edi, nhK) in VHASH_Update_SSE2()
232 AS2( add edi, eax) in VHASH_Update_SSE2()
233 AS2( add eax, eax) in VHASH_Update_SSE2()
234 AS2( add eax, polyS) in VHASH_Update_SSE2()
236 AS2( mov esi, data) in VHASH_Update_SSE2()
237 AS2( mov ecx, blocksRemainingInWord64) in VHASH_Update_SSE2()
240 AS2( shr ebx, 3) in VHASH_Update_SSE2()
242 AS2( sub esp, 12) in VHASH_Update_SSE2()
244 AS2( mov ebp, ebx) in VHASH_Update_SSE2()
245 AS2( cmp ecx, ebx) in VHASH_Update_SSE2()
246 AS2( cmovl ebp, ecx) in VHASH_Update_SSE2()
247 AS2( sub ecx, ebp) in VHASH_Update_SSE2()
248 AS2( lea ebp, [edi+8*ebp]) // end of nhK in VHASH_Update_SSE2()
249 AS2( movq mm6, [esi]) in VHASH_Update_SSE2()
250 AS2( paddq mm6, [edi]) in VHASH_Update_SSE2()
251 AS2( movq mm5, [esi+8]) in VHASH_Update_SSE2()
252 AS2( paddq mm5, [edi+8]) in VHASH_Update_SSE2()
253 AS2( add esi, 16) in VHASH_Update_SSE2()
254 AS2( add edi, 16) in VHASH_Update_SSE2()
255 AS2( movq mm4, mm6) in VHASH_Update_SSE2()
257 AS2( pmuludq mm6, mm5) in VHASH_Update_SSE2()
259 AS2( pmuludq mm5, mm2) in VHASH_Update_SSE2()
260 AS2( pmuludq mm2, mm3) in VHASH_Update_SSE2()
261 AS2( pmuludq mm3, mm4) in VHASH_Update_SSE2()
262 AS2( pxor mm7, mm7) in VHASH_Update_SSE2()
263 AS2( movd [esp], mm6) in VHASH_Update_SSE2()
264 AS2( psrlq mm6, 32) in VHASH_Update_SSE2()
265 AS2( movd [esp+4], mm5) in VHASH_Update_SSE2()
266 AS2( psrlq mm5, 32) in VHASH_Update_SSE2()
267 AS2( cmp edi, ebp) in VHASH_Update_SSE2()
270 AS2( movq mm0, [esi]) in VHASH_Update_SSE2()
271 AS2( paddq mm0, [edi]) in VHASH_Update_SSE2()
272 AS2( movq mm1, [esi+8]) in VHASH_Update_SSE2()
273 AS2( paddq mm1, [edi+8]) in VHASH_Update_SSE2()
274 AS2( add esi, 16) in VHASH_Update_SSE2()
275 AS2( add edi, 16) in VHASH_Update_SSE2()
276 AS2( movq mm4, mm0) in VHASH_Update_SSE2()
277 AS2( paddq mm5, mm2) in VHASH_Update_SSE2()
279 AS2( pmuludq mm0, mm1) in VHASH_Update_SSE2()
280 AS2( movd [esp+8], mm3) in VHASH_Update_SSE2()
281 AS2( psrlq mm3, 32) in VHASH_Update_SSE2()
282 AS2( paddq mm5, mm3) in VHASH_Update_SSE2()
284 AS2( pmuludq mm1, mm2) in VHASH_Update_SSE2()
285 AS2( pmuludq mm2, mm3) in VHASH_Update_SSE2()
286 AS2( pmuludq mm3, mm4) in VHASH_Update_SSE2()
287 AS2( movd mm4, [esp]) in VHASH_Update_SSE2()
288 AS2( paddq mm7, mm4) in VHASH_Update_SSE2()
289 AS2( movd mm4, [esp+4]) in VHASH_Update_SSE2()
290 AS2( paddq mm6, mm4) in VHASH_Update_SSE2()
291 AS2( movd mm4, [esp+8]) in VHASH_Update_SSE2()
292 AS2( paddq mm6, mm4) in VHASH_Update_SSE2()
293 AS2( movd [esp], mm0) in VHASH_Update_SSE2()
294 AS2( psrlq mm0, 32) in VHASH_Update_SSE2()
295 AS2( paddq mm6, mm0) in VHASH_Update_SSE2()
296 AS2( movd [esp+4], mm1) in VHASH_Update_SSE2()
297 AS2( psrlq mm1, 32) in VHASH_Update_SSE2()
298 AS2( paddq mm5, mm1) in VHASH_Update_SSE2()
299 AS2( cmp edi, ebp) in VHASH_Update_SSE2()
302 AS2( paddq mm5, mm2) in VHASH_Update_SSE2()
303 AS2( movd [esp+8], mm3) in VHASH_Update_SSE2()
304 AS2( psrlq mm3, 32) in VHASH_Update_SSE2()
305 AS2( paddq mm5, mm3) in VHASH_Update_SSE2()
306 AS2( movd mm4, [esp]) in VHASH_Update_SSE2()
307 AS2( paddq mm7, mm4) in VHASH_Update_SSE2()
308 AS2( movd mm4, [esp+4]) in VHASH_Update_SSE2()
309 AS2( paddq mm6, mm4) in VHASH_Update_SSE2()
310 AS2( movd mm4, [esp+8]) in VHASH_Update_SSE2()
311 AS2( paddq mm6, mm4) in VHASH_Update_SSE2()
312 AS2( lea ebp, [8*ebx]) in VHASH_Update_SSE2()
313 AS2( sub edi, ebp) // reset edi to start of nhK in VHASH_Update_SSE2()
315 AS2( movd [esp], mm7) in VHASH_Update_SSE2()
316 AS2( psrlq mm7, 32) in VHASH_Update_SSE2()
317 AS2( paddq mm6, mm7) in VHASH_Update_SSE2()
318 AS2( movd [esp+4], mm6) in VHASH_Update_SSE2()
319 AS2( psrlq mm6, 32) in VHASH_Update_SSE2()
320 AS2( paddq mm5, mm6) in VHASH_Update_SSE2()
321 AS2( psllq mm5, 2) in VHASH_Update_SSE2()
322 AS2( psrlq mm5, 2) in VHASH_Update_SSE2()
333 AS2( test dl, dl) in VHASH_Update_SSE2()
335 AS2( movd mm1, k0) in VHASH_Update_SSE2()
336 AS2( movd mm0, [esp]) in VHASH_Update_SSE2()
337 AS2( paddq mm0, mm1) in VHASH_Update_SSE2()
338 AS2( movd a0, mm0) in VHASH_Update_SSE2()
339 AS2( psrlq mm0, 32) in VHASH_Update_SSE2()
340 AS2( movd mm1, k1) in VHASH_Update_SSE2()
341 AS2( movd mm2, [esp+4]) in VHASH_Update_SSE2()
342 AS2( paddq mm1, mm2) in VHASH_Update_SSE2()
343 AS2( paddq mm0, mm1) in VHASH_Update_SSE2()
344 AS2( movd a1, mm0) in VHASH_Update_SSE2()
345 AS2( psrlq mm0, 32) in VHASH_Update_SSE2()
346 AS2( paddq mm5, k2) in VHASH_Update_SSE2()
347 AS2( paddq mm0, mm5) in VHASH_Update_SSE2()
348 AS2( movq a2, mm0) in VHASH_Update_SSE2()
349 AS2( xor edx, edx) in VHASH_Update_SSE2()
352 AS2( movd mm0, a3) in VHASH_Update_SSE2()
353 AS2( movq mm4, mm0) in VHASH_Update_SSE2()
354 AS2( pmuludq mm0, k3) // a3*k3 in VHASH_Update_SSE2()
355 AS2( movd mm1, a0) in VHASH_Update_SSE2()
356 AS2( pmuludq mm1, k2) // a0*k2 in VHASH_Update_SSE2()
357 AS2( movd mm2, a1) in VHASH_Update_SSE2()
358 AS2( movd mm6, k1) in VHASH_Update_SSE2()
359 AS2( pmuludq mm2, mm6) // a1*k1 in VHASH_Update_SSE2()
360 AS2( movd mm3, a2) in VHASH_Update_SSE2()
361 AS2( psllq mm0, 1) in VHASH_Update_SSE2()
362 AS2( paddq mm0, mm5) in VHASH_Update_SSE2()
363 AS2( movq mm5, mm3) in VHASH_Update_SSE2()
364 AS2( movd mm7, k0) in VHASH_Update_SSE2()
365 AS2( pmuludq mm3, mm7) // a2*k0 in VHASH_Update_SSE2()
366 AS2( pmuludq mm4, mm7) // a3*k0 in VHASH_Update_SSE2()
367 AS2( pmuludq mm5, mm6) // a2*k1 in VHASH_Update_SSE2()
368 AS2( paddq mm0, mm1) in VHASH_Update_SSE2()
369 AS2( movd mm1, a1) in VHASH_Update_SSE2()
370 AS2( paddq mm4, mm5) in VHASH_Update_SSE2()
371 AS2( movq mm5, mm1) in VHASH_Update_SSE2()
372 AS2( pmuludq mm1, k2) // a1*k2 in VHASH_Update_SSE2()
373 AS2( paddq mm0, mm2) in VHASH_Update_SSE2()
374 AS2( movd mm2, a0) in VHASH_Update_SSE2()
375 AS2( paddq mm0, mm3) in VHASH_Update_SSE2()
376 AS2( movq mm3, mm2) in VHASH_Update_SSE2()
377 AS2( pmuludq mm2, k3) // a0*k3 in VHASH_Update_SSE2()
378 AS2( pmuludq mm3, mm7) // a0*k0 in VHASH_Update_SSE2()
379 AS2( movd [esp+8], mm0) in VHASH_Update_SSE2()
380 AS2( psrlq mm0, 32) in VHASH_Update_SSE2()
381 AS2( pmuludq mm7, mm5) // a1*k0 in VHASH_Update_SSE2()
382 AS2( pmuludq mm5, k3) // a1*k3 in VHASH_Update_SSE2()
383 AS2( paddq mm0, mm1) in VHASH_Update_SSE2()
384 AS2( movd mm1, a2) in VHASH_Update_SSE2()
385 AS2( pmuludq mm1, k2) // a2*k2 in VHASH_Update_SSE2()
386 AS2( paddq mm0, mm2) in VHASH_Update_SSE2()
387 AS2( paddq mm0, mm4) in VHASH_Update_SSE2()
388 AS2( movq mm4, mm0) in VHASH_Update_SSE2()
389 AS2( movd mm2, a3) in VHASH_Update_SSE2()
390 AS2( pmuludq mm2, mm6) // a3*k1 in VHASH_Update_SSE2()
391 AS2( pmuludq mm6, a0) // a0*k1 in VHASH_Update_SSE2()
392 AS2( psrlq mm0, 31) in VHASH_Update_SSE2()
393 AS2( paddq mm0, mm3) in VHASH_Update_SSE2()
394 AS2( movd mm3, [esp]) in VHASH_Update_SSE2()
395 AS2( paddq mm0, mm3) in VHASH_Update_SSE2()
396 AS2( movd mm3, a2) in VHASH_Update_SSE2()
397 AS2( pmuludq mm3, k3) // a2*k3 in VHASH_Update_SSE2()
398 AS2( paddq mm5, mm1) in VHASH_Update_SSE2()
399 AS2( movd mm1, a3) in VHASH_Update_SSE2()
400 AS2( pmuludq mm1, k2) // a3*k2 in VHASH_Update_SSE2()
401 AS2( paddq mm5, mm2) in VHASH_Update_SSE2()
402 AS2( movd mm2, [esp+4]) in VHASH_Update_SSE2()
403 AS2( psllq mm5, 1) in VHASH_Update_SSE2()
404 AS2( paddq mm0, mm5) in VHASH_Update_SSE2()
405 AS2( psllq mm4, 33) in VHASH_Update_SSE2()
406 AS2( movd a0, mm0) in VHASH_Update_SSE2()
407 AS2( psrlq mm0, 32) in VHASH_Update_SSE2()
408 AS2( paddq mm6, mm7) in VHASH_Update_SSE2()
409 AS2( movd mm7, [esp+8]) in VHASH_Update_SSE2()
410 AS2( paddq mm0, mm6) in VHASH_Update_SSE2()
411 AS2( paddq mm0, mm2) in VHASH_Update_SSE2()
412 AS2( paddq mm3, mm1) in VHASH_Update_SSE2()
413 AS2( psllq mm3, 1) in VHASH_Update_SSE2()
414 AS2( paddq mm0, mm3) in VHASH_Update_SSE2()
415 AS2( psrlq mm4, 1) in VHASH_Update_SSE2()
416 AS2( movd a1, mm0) in VHASH_Update_SSE2()
417 AS2( psrlq mm0, 32) in VHASH_Update_SSE2()
418 AS2( por mm4, mm7) in VHASH_Update_SSE2()
419 AS2( paddq mm0, mm4) in VHASH_Update_SSE2()
420 AS2( movq a2, mm0) in VHASH_Update_SSE2()
432 AS2( test ecx, ecx) in VHASH_Update_SSE2()
434 AS2( add esp, 12) in VHASH_Update_SSE2()
441 AS2( mov -20(%%esp), %%ebx) in VHASH_Update_SSE2()