From d1644bdf29de7b5d39bfc45aee111cedc1b9c36d Mon Sep 17 00:00:00 2001 From: Stefan Fiedler Date: Fri, 4 Nov 2005 17:33:26 +0000 Subject: [PATCH] Stefan Fiedler: gimp: patch for gcc40 Index: package/gnome2/gimp/gcc40.patch =================================================================== [2005102619045309998] (https://www.rocklinux.net/submaster) git-svn-id: http://www.rocklinux.org/svn/rock-linux/trunk@6577 c5f82cb5-29bc-0310-9cd0-bff59a50e3bc --- package/gnome2/gimp/gcc40.patch | 1021 +++++++++++++++++++++++++++++++ 1 file changed, 1021 insertions(+) create mode 100644 package/gnome2/gimp/gcc40.patch diff --git a/package/gnome2/gimp/gcc40.patch b/package/gnome2/gimp/gcc40.patch new file mode 100644 index 000000000..1e9eda9b5 --- /dev/null +++ b/package/gnome2/gimp/gcc40.patch @@ -0,0 +1,1021 @@ +Fixes for errors like: +gimp-composite-mmx.c: In function 'gimp_composite_addition_rgba8_rgba8_rgba8_mmx': +gimp-composite-mmx.c:94: error: unknown register name '%mm0' in 'asm' +gimp-composite-mmx.c:101: error: unknown register name '%mm4' in 'asm' +gimp-composite-mmx.c:101: error: unknown register name '%mm3' in 'asm' +gimp-composite-mmx.c:101: error: unknown register name '%mm2' in 'asm' +gimp-composite-mmx.c:101: error: unknown register name '%mm1' in 'asm' + +diff -dur gimp-2.2.8/app/composite/gimp-composite-mmx.c gimp-2.2.8-p/app/composite/gimp-composite-mmx.c +--- gimp-2.2.8/app/composite/gimp-composite-mmx.c 2005-01-11 12:27:25.000000000 +0100 ++++ gimp-2.2.8-p/app/composite/gimp-composite-mmx.c 2005-10-22 13:37:05.000000000 +0200 +@@ -94,7 +94,7 @@ + asm volatile ("movq %0,%%mm0" + : /* empty */ + : "m" (*rgba8_alpha_mask_64) +- : "%mm0"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -110,7 +110,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -130,7 +130,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -192,7 +192,7 @@ + "\tmovq %%mm7,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64) +- : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + d++; + b++; + a++; +@@ -246,7 +246,7 @@ + "\tmovd %%mm7,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64) +- : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ : pdivwqX_clobber); + } + + asm("emms"); +@@ -269,7 +269,7 @@ + "\tmovq %%mm2, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -283,7 +283,7 @@ + "\tmovd %%mm2, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -297,7 +297,7 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -316,7 +316,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -339,7 +339,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -358,7 +358,7 @@ + "\tmovq %1, %%mm7\n" + : + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w1_64) +- : "%mm0", "%mm7"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -398,7 +398,7 @@ + "\tmovq %%mm3,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_alpha_mask_64) +- : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ : pdivwuqX_clobber); + a++; + b++; + d++; +@@ -442,7 +442,7 @@ + "\tmovd %%mm3,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_alpha_mask_64) +- : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ : pdivwuqX_clobber); + } + + asm("emms"); +@@ -495,7 +495,7 @@ + "\tmovq %%mm7,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64) +- : pdivwuqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ : pdivwuqX_clobber); + a++; + b++; + d++; +@@ -538,7 +538,7 @@ + "\tmovd %%mm7,%2\n" + : /* empty */ + : "m" (*a), "m" (*b), "m" (*d), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64) +- : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ : pdivwuqX_clobber); + } + + asm("emms"); +@@ -558,7 +558,7 @@ + "movq %1,%%mm7\n" + : /* no outputs */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64) +- : "%mm0", "%mm7", "%mm6"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -589,7 +589,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -620,7 +620,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -639,7 +639,7 @@ + "movq %1, %%mm7\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64) +- : "%mm0", "%mm6", "%mm7"); ++); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -667,7 +668,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++); + a++; + b++; + d++; +@@ -697,7 +699,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -711,7 +713,7 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -727,7 +729,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -750,7 +752,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -770,7 +772,7 @@ + "pxor %%mm6,%%mm6\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64) +- : "%mm6", "%mm7", "%mm0"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -797,7 +799,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -824,7 +826,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -892,7 +894,7 @@ + asm volatile ("pxor %%mm0,%%mm0\n" + "movq %0,%%mm7" + : /* empty */ +- : "m" (*rgba8_w128_64) : "%mm0"); ++ : "m" (*rgba8_w128_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -943,7 +945,7 @@ + "\tmovq %%mm1,%2\n" + : "+m" (*a), "+m" (*b), "+m" (*d) + : "m" (*rgba8_w2_64), "m" (*rgba8_alpha_mask_64) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -998,7 +1000,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_w2_64), "m" (*rgba8_alpha_mask_64) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -1024,7 +1026,7 @@ + "\tmovq %1,%%mm7\n" + : /* empty */ + : "m" (_op->scale.scale), "m" (*rgba8_w128_64) +- : "%eax", "%ebx", "%mm0", "%mm5", "%mm6", "%mm7"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -1046,7 +1048,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + a++; + d++; + } +@@ -1064,7 +1066,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + } + + asm("emms"); +@@ -1083,7 +1085,7 @@ + "movq %1,%%mm7\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64) +- : "%mm0", "%mm6", "%mm7"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -1134,7 +1136,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -1189,7 +1191,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm volatile ("emms"); +@@ -1204,7 +1206,7 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -1224,7 +1226,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -1248,7 +1250,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm volatile ("emms"); +@@ -1269,7 +1271,7 @@ + "\tmovq %%mm2,%1\n" + : "+m" (*a), "+m" (*b) + : +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + } +@@ -1282,7 +1284,7 @@ + "\tmovd %%mm2,%1\n" + : "+m" (*a), "+m" (*b) + : +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +diff -dur gimp-2.2.8/app/composite/gimp-composite-sse2.c gimp-2.2.8-p/app/composite/gimp-composite-sse2.c +--- gimp-2.2.8/app/composite/gimp-composite-sse2.c 2005-05-06 14:27:50.000000000 +0200 ++++ gimp-2.2.8-p/app/composite/gimp-composite-sse2.c 2005-10-22 13:49:02.000000000 +0200 +@@ -100,7 +100,7 @@ + "\tmovq %1,%%mm0" + : /* empty */ + : "m" (*rgba8_alpha_mask_128), "m" (*rgba8_alpha_mask_64) +- : "%xmm0", "%mm0"); ++ ); + + for (; n_pixels >= 4; n_pixels -= 4) + { +@@ -117,7 +117,7 @@ + "\tmovdqu %%xmm1,%0\n" + : "=m" (*D) + : "m" (*A), "m" (*B) +- : "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7"); ++ ); + A++; + B++; + D++; +@@ -141,7 +141,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + a++; + b++; + d++; +@@ -161,7 +161,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + } + + asm("emms"); +@@ -195,7 +195,7 @@ + "\tmovdqu %%xmm2,%0\n" + : "=m" (*D) + : "m" (*A), "m" (*B) +- : "%xmm1", "%xmm2", "%xmm3", "%xmm4"); ++ ); + A++; + B++; + D++; +@@ -212,7 +212,7 @@ + "\tmovq %%mm2, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -226,7 +226,7 @@ + "\tmovd %%mm2, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -247,7 +247,7 @@ + "\tmovdqu %1,%%xmm0" + : /* */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_alpha_mask_128) +- : "%mm0", "%xmm0"); ++ ); + + for (; n_pixels >= 4; n_pixels -= 4) + { +@@ -266,7 +266,7 @@ + "\tmovdqu %%xmm1,%0\n" + : "=m" (*D) + : "m" (*A), "m" (*B) +- : "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5"); ++ ); + A++; + B++; + D++; +@@ -293,7 +293,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -316,7 +316,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -366,7 +366,7 @@ + "\tmovdqu %%xmm7,%0\n" + : "=m" (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_128), "m" (*rgba8_alpha_mask_128) +- : "%eax", "%ecx", "%edx", "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7"); ++ ); + op.A += 16; + op.B += 16; + op.D += 16; +@@ -409,7 +409,7 @@ + "\tmovq %%mm7,%0\n" + : (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64) +- : "%eax", "%ecx", "%edx", "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + op.A += 8; + op.B += 8; + op.D += 8; +@@ -452,7 +452,7 @@ + "\tmovd %%mm7,%0\n" + : "=m" (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64) +- : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -478,7 +478,7 @@ + "\tmovdqu %3,%%xmm7\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64), "m" (*rgba8_alpha_mask_128), "m" (*rgba8_w128_128) +- : "%mm0", "%mm6", "%mm7", "%xmm0", "%xmm6", "%xmm7"); ++ ); + + for (; n_pixels >= 4; n_pixels -= 4) + { +@@ -509,7 +509,7 @@ + "\tmovdqu %%xmm1,%0\n" + : "=m" (*D) + : "m" (*A), "m" (*B) +- : "%xmm1", "%xmm2", "%xmm3", "%xmm4"); ++ ); + A++; + B++; + D++; +@@ -548,7 +548,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -573,7 +573,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -590,7 +590,7 @@ + uint128 *B = (uint128 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movdqu %0,%%xmm0" : : "m" (*rgba8_alpha_mask_64) : "%xmm0"); ++ asm volatile ("movdqu %0,%%xmm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 4; n_pixels -= 4) + { +@@ -606,7 +606,7 @@ + "\tmovdqu %%xmm1, %0\n" + : "=m" (*D) + : "m" (*A), "m" (*B) +- : "%xmm1", "%xmm2", "%xmm3", "%xmm4"); ++ ); + A++; + B++; + D++; +@@ -630,7 +630,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -650,7 +650,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -671,7 +671,7 @@ + "\tmovdqu %1,%%xmm0\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_alpha_mask_128) +- : "%mm0", "%xmm0"); ++ ); + + for (; n_pixels >= 4; n_pixels -= 4) + { +@@ -688,7 +688,7 @@ + "\tmovdqu %%xmm1,%0\n" + : "=m" (*D) + : "m" (*A), "m" (*B) +- : "%xmm1", "%xmm2", "%xmm3", "%xmm4"); ++ ); + A++; + B++; + D++; +@@ -712,7 +712,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -732,7 +732,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -772,7 +772,6 @@ + "+m" (op.A[2]), "+m" (op.B[2]), + "+m" (op.A[3]), "+m" (op.B[3]) + : /* empty */ +- : "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7" + ); + #else + asm volatile (" movdqu %0,%%xmm0\n" +@@ -828,7 +827,7 @@ + "\tmovdqu %%xmm2,%1\n" + : "+m" (*op.A), "+m" (*op.B) + : /* empty */ +- : "%xmm2", "%xmm3"); ++ ); + op.A += 16; + op.B += 16; + } +@@ -841,7 +840,7 @@ + "\tmovq %%mm2,%1\n" + : "+m" (*op.A), "+m" (*op.B) + : /* empty */ +- : "%mm2", "%mm3"); ++ ); + op.A += 8; + op.B += 8; + } +@@ -854,7 +853,7 @@ + "\tmovd %%mm2,%1\n" + : "+m" (*op.A), "+m" (*op.B) + : /* empty */ +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +diff -dur gimp-2.2.8/app/composite/gimp-composite-sse.c gimp-2.2.8-p/app/composite/gimp-composite-sse.c +--- gimp-2.2.8/app/composite/gimp-composite-sse.c 2005-01-08 00:58:33.000000000 +0100 ++++ gimp-2.2.8-p/app/composite/gimp-composite-sse.c 2005-10-22 13:42:12.000000000 +0200 +@@ -72,7 +72,7 @@ + asm volatile ("movq %0,%%mm0" + : /* empty */ + : "m" (*rgba8_alpha_mask_64) +- : "%mm0"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -88,7 +88,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -108,7 +108,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -171,7 +171,7 @@ + "\tmovq %%mm7,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64) +- : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ : pdivwqX_clobber); + d++; + b++; + a++; +@@ -225,7 +225,7 @@ + "\tmovd %%mm7,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64) +- : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ : pdivwqX_clobber); + } + + asm("emms"); +@@ -248,7 +248,7 @@ + "\tmovq %%mm2, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -262,7 +262,7 @@ + "\tmovd %%mm2, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -276,7 +276,7 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -295,7 +295,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -318,7 +318,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -334,7 +334,7 @@ + "\tmovq %1, %%mm7\n" + : + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w1_64) +- : "%mm0", "%mm7"); ++ ); + + for (; op.n_pixels >= 2; op.n_pixels -= 2) + { +@@ -374,7 +374,7 @@ + "\tmovq %%mm3,%0\n" + : "=m" (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_alpha_mask_64) +- : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + op.A += 8; + op.B += 8; + op.D += 8; +@@ -419,7 +419,7 @@ + "\tmovd %%mm3,%0\n" + : "=m" (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_alpha_mask_64) +- : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -469,7 +469,7 @@ + "\tmovq %%mm7,%0\n" + : "=m" (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64) +- : "%eax", "%ecx", "%edx", "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + op.A += 8; + op.B += 8; + op.D += 8; +@@ -512,7 +512,7 @@ + "\tmovd %%mm7,%2\n" + : "=m" (*op.D) + : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64) +- : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -533,7 +533,7 @@ + "\tmovq %1,%%mm7\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64) +- : "%mm0", "%mm6", "%mm7"); ++ ); + + + for (; n_pixels >= 2; n_pixels -= 2) +@@ -565,7 +565,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -597,7 +597,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -616,7 +616,7 @@ + "movq %1, %%mm7\n" + : /* empty */ + : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64) +- : "%mm0", "%mm6", "%mm7"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -644,7 +644,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -675,7 +675,7 @@ + "\tmovd %%mm1, %0\n" + : "+m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -689,7 +689,7 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -705,7 +705,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -728,7 +728,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -742,9 +742,9 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); +- asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) : "%mm7"); +- asm volatile ("pxor %%mm6,%%mm6" : : : "%mm6"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); ++ asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) ); ++ asm volatile ("pxor %%mm6,%%mm6" : : ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -771,7 +771,7 @@ + "\tmovq %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -798,7 +798,7 @@ + "\tmovd %%mm1, %0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -993,7 +993,7 @@ + "\tmovq %1,%%mm7\n" + : /* empty */ + : "m" (_op->scale.scale), "m" (*rgba8_w128_64) +- : "%eax", "%ebx", "%mm0", "%mm3", "%mm5", "%mm6", "%mm7"); ++ ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -1015,7 +1015,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a) +- : "%mm1", "%mm2", "%mm4", "%mm5", "%mm7"); ++ ); + a++; + d++; + } +@@ -1033,7 +1033,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a) +- : "%mm1", "%mm2", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + } + + asm("emms"); +@@ -1047,8 +1047,8 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); +- asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) : "%mm7"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); ++ asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) ); + asm volatile ("pxor %mm6, %mm6"); + + for (; n_pixels >= 2; n_pixels -= 2) +@@ -1100,7 +1100,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + a++; + b++; + d++; +@@ -1155,7 +1155,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5"); ++ ); + } + + asm("emms"); +@@ -1170,7 +1170,7 @@ + uint64 *b = (uint64 *) _op->B; + gulong n_pixels = _op->n_pixels; + +- asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0"); ++ asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) ); + + for (; n_pixels >= 2; n_pixels -= 2) + { +@@ -1186,7 +1186,7 @@ + "\tmovq %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + d++; +@@ -1206,7 +1206,7 @@ + "\tmovd %%mm1,%0\n" + : "=m" (*d) + : "m" (*a), "m" (*b) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -1227,7 +1227,7 @@ + "\tmovq %%mm2,%1\n" + : "+m" (*a), "+m" (*b) + : +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + a++; + b++; + } +@@ -1240,7 +1240,7 @@ + "\tmovd %%mm2,%1\n" + : "+m" (*a), "+m" (*b) + : /* empty */ +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + asm("emms"); +@@ -1390,7 +1390,7 @@ + "\tmovq %%mm7,(%2); addl $8,%2\n" + : "+r" (op.A), "+r" (op.B), "+r" (op.D) + : "m" (*va8_b255), "m" (*va8_w1), "m" (*va8_w255), "m" (*va8_alpha_mask) +- : "%mm1", "%mm2", "%mm3", "%mm4"); ++ ); + } + + if (op.n_pixels) +@@ -1441,7 +1441,7 @@ + "\tmovd %%mm7,(%2)\n" + : /* empty */ + : "r" (op.A), "r" (op.B), "r" (op.D), "m" (*va8_b255), "m" (*va8_w1), "m" (*va8_w255), "m" (*va8_alpha_mask) +- : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7"); ++ ); + } + + asm("emms");