Mientras escribía una ftol
función optimizada , encontré un comportamiento muy extraño en GCC 4.6.1
. Déjame mostrarte el código primero (para mayor claridad, marqué las diferencias):
fast_trunc_one, C:
int fast_trunc_one(int i) {
int mantissa, exponent, sign, r;
mantissa = (i & 0x07fffff) | 0x800000;
exponent = 150 - ((i >> 23) & 0xff);
sign = i & 0x80000000;
if (exponent < 0) {
r = mantissa << -exponent; /* diff */
} else {
r = mantissa >> exponent; /* diff */
}
return (r ^ -sign) + sign; /* diff */
}
fast_trunc_two, C:
int fast_trunc_two(int i) {
int mantissa, exponent, sign, r;
mantissa = (i & 0x07fffff) | 0x800000;
exponent = 150 - ((i >> 23) & 0xff);
sign = i & 0x80000000;
if (exponent < 0) {
r = (mantissa << -exponent) ^ -sign; /* diff */
} else {
r = (mantissa >> exponent) ^ -sign; /* diff */
}
return r + sign; /* diff */
}
Parece lo mismo, ¿verdad? Bueno, el CCG no está de acuerdo. Después de compilar con gcc -O3 -S -Wall -o test.s test.c
esto es la salida del ensamblaje:
fast_trunc_one, generado:
_fast_trunc_one:
LFB0:
.cfi_startproc
movl 4(%esp), %eax
movl $150, %ecx
movl %eax, %edx
andl $8388607, %edx
sarl $23, %eax
orl $8388608, %edx
andl $255, %eax
subl %eax, %ecx
movl %edx, %eax
sarl %cl, %eax
testl %ecx, %ecx
js L5
rep
ret
.p2align 4,,7
L5:
negl %ecx
movl %edx, %eax
sall %cl, %eax
ret
.cfi_endproc
fast_trunc_two, generado:
_fast_trunc_two:
LFB1:
.cfi_startproc
pushl %ebx
.cfi_def_cfa_offset 8
.cfi_offset 3, -8
movl 8(%esp), %eax
movl $150, %ecx
movl %eax, %ebx
movl %eax, %edx
sarl $23, %ebx
andl $8388607, %edx
andl $255, %ebx
orl $8388608, %edx
andl $-2147483648, %eax
subl %ebx, %ecx
js L9
sarl %cl, %edx
movl %eax, %ecx
negl %ecx
xorl %ecx, %edx
addl %edx, %eax
popl %ebx
.cfi_remember_state
.cfi_def_cfa_offset 4
.cfi_restore 3
ret
.p2align 4,,7
L9:
.cfi_restore_state
negl %ecx
sall %cl, %edx
movl %eax, %ecx
negl %ecx
xorl %ecx, %edx
addl %edx, %eax
popl %ebx
.cfi_restore 3
.cfi_def_cfa_offset 4
ret
.cfi_endproc
Esa es una diferencia extrema . Esto también aparece en el perfil, fast_trunc_one
es alrededor de un 30% más rápido que fast_trunc_two
. Ahora mi pregunta: ¿qué está causando esto?
-S -O3 -da -fdump-tree-all
. Esto creará muchas instantáneas de la representación intermedia. Camine a través de ellos (están numerados) uno al lado del otro y debería poder encontrar la optimización que falta en el primer caso.
int
a unsigned int
y vea si la diferencia desaparece.
(r + shifted) ^ sign
no es la misma que r + (shifted ^ sign)
. ¿Supongo que eso confunde al optimizador? FWIW, MSVC 2010 (16.00.40219.01) produce listados que son casi idénticos entre sí: gist.github.com/2430454