1; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py 2; RUN: llc < %s -mtriple=x86_64-- -mattr=+sse2 | FileCheck %s --check-prefix=SSE2 3; RUN: llc < %s -mtriple=x86_64-- -mattr=+sse4.2 | FileCheck %s --check-prefix=SSE4 4; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx | FileCheck %s --check-prefix=AVX1 5; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx2 | FileCheck %s --check-prefix=AVX2 6 7define <4 x i64> @PR45808(<4 x i64> %0, <4 x i64> %1) { 8; SSE2-LABEL: PR45808: 9; SSE2: # %bb.0: 10; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648] 11; SSE2-NEXT: movdqa %xmm3, %xmm9 12; SSE2-NEXT: pxor %xmm4, %xmm9 13; SSE2-NEXT: movdqa %xmm1, %xmm6 14; SSE2-NEXT: pxor %xmm4, %xmm6 15; SSE2-NEXT: movdqa %xmm6, %xmm8 16; SSE2-NEXT: pcmpgtd %xmm9, %xmm8 17; SSE2-NEXT: movdqa %xmm2, %xmm7 18; SSE2-NEXT: pxor %xmm4, %xmm7 19; SSE2-NEXT: pxor %xmm0, %xmm4 20; SSE2-NEXT: movdqa %xmm4, %xmm5 21; SSE2-NEXT: pcmpgtd %xmm7, %xmm5 22; SSE2-NEXT: movdqa %xmm5, %xmm10 23; SSE2-NEXT: shufps {{.*#+}} xmm10 = xmm10[0,2],xmm8[0,2] 24; SSE2-NEXT: pcmpeqd %xmm9, %xmm6 25; SSE2-NEXT: pcmpeqd %xmm7, %xmm4 26; SSE2-NEXT: shufps {{.*#+}} xmm4 = xmm4[1,3],xmm6[1,3] 27; SSE2-NEXT: andps %xmm10, %xmm4 28; SSE2-NEXT: shufps {{.*#+}} xmm5 = xmm5[1,3],xmm8[1,3] 29; SSE2-NEXT: orps %xmm4, %xmm5 30; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm5[2,1,3,3] 31; SSE2-NEXT: psllq $63, %xmm4 32; SSE2-NEXT: psrad $31, %xmm4 33; SSE2-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3] 34; SSE2-NEXT: pand %xmm4, %xmm1 35; SSE2-NEXT: pandn %xmm3, %xmm4 36; SSE2-NEXT: por %xmm4, %xmm1 37; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm5[0,1,1,3] 38; SSE2-NEXT: pxor {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm3 39; SSE2-NEXT: psllq $63, %xmm3 40; SSE2-NEXT: psrad $31, %xmm3 41; SSE2-NEXT: pshufd {{.*#+}} xmm3 = xmm3[1,1,3,3] 42; SSE2-NEXT: pand %xmm3, %xmm0 43; SSE2-NEXT: pandn %xmm2, %xmm3 44; SSE2-NEXT: por %xmm3, %xmm0 45; SSE2-NEXT: retq 46; 47; SSE4-LABEL: PR45808: 48; SSE4: # %bb.0: 49; SSE4-NEXT: movdqa %xmm0, %xmm4 50; SSE4-NEXT: movdqa %xmm1, %xmm0 51; SSE4-NEXT: pcmpgtq %xmm3, %xmm0 52; SSE4-NEXT: movdqa %xmm4, %xmm5 53; SSE4-NEXT: pcmpgtq %xmm2, %xmm5 54; SSE4-NEXT: pshufd {{.*#+}} xmm5 = xmm5[0,2,2,3] 55; SSE4-NEXT: pcmpeqd %xmm6, %xmm6 56; SSE4-NEXT: pxor %xmm5, %xmm6 57; SSE4-NEXT: psllq $63, %xmm0 58; SSE4-NEXT: blendvpd %xmm0, %xmm1, %xmm3 59; SSE4-NEXT: pmovzxdq {{.*#+}} xmm0 = xmm6[0],zero,xmm6[1],zero 60; SSE4-NEXT: psllq $63, %xmm0 61; SSE4-NEXT: blendvpd %xmm0, %xmm4, %xmm2 62; SSE4-NEXT: movapd %xmm2, %xmm0 63; SSE4-NEXT: movapd %xmm3, %xmm1 64; SSE4-NEXT: retq 65; 66; AVX1-LABEL: PR45808: 67; AVX1: # %bb.0: 68; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 69; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 70; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 71; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm3 72; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm3, %ymm2 73; AVX1-NEXT: vxorpd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %ymm2, %ymm2 74; AVX1-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 75; AVX1-NEXT: retq 76; 77; AVX2-LABEL: PR45808: 78; AVX2: # %bb.0: 79; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2 80; AVX2-NEXT: vpxor {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %ymm2, %ymm2 81; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 82; AVX2-NEXT: retq 83 %3 = icmp sgt <4 x i64> %0, %1 84 %4 = xor <4 x i1> %3, <i1 true, i1 true, i1 false, i1 false> 85 %5 = select <4 x i1> %4, <4 x i64> %0, <4 x i64> %1 86 ret <4 x i64> %5 87} 88