mirror of the now-defunct rocklinux.org
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

1040 lines
33 KiB

  1. # --- ROCK-COPYRIGHT-NOTE-BEGIN ---
  2. #
  3. # This copyright note is auto-generated by ./scripts/Create-CopyPatch.
  4. # Please add additional copyright information _after_ the line containing
  5. # the ROCK-COPYRIGHT-NOTE-END tag. Otherwise it might get removed by
  6. # the ./scripts/Create-CopyPatch script. Do not edit this copyright text!
  7. #
  8. # ROCK Linux: rock-src/package/gnome2/gimp/gcc40.patch
  9. # ROCK Linux is Copyright (C) 1998 - 2006 Clifford Wolf
  10. #
  11. # This patch file is dual-licensed. It is available under the license the
  12. # patched project is licensed under, as long as it is an OpenSource license
  13. # as defined at http://www.opensource.org/ (e.g. BSD, X11) or under the terms
  14. # of the GNU General Public License as published by the Free Software
  15. # Foundation; either version 2 of the License, or (at your option) any later
  16. # version.
  17. #
  18. # --- ROCK-COPYRIGHT-NOTE-END ---
  19. Fixes for errors like:
  20. gimp-composite-mmx.c: In function 'gimp_composite_addition_rgba8_rgba8_rgba8_mmx':
  21. gimp-composite-mmx.c:94: error: unknown register name '%mm0' in 'asm'
  22. gimp-composite-mmx.c:101: error: unknown register name '%mm4' in 'asm'
  23. gimp-composite-mmx.c:101: error: unknown register name '%mm3' in 'asm'
  24. gimp-composite-mmx.c:101: error: unknown register name '%mm2' in 'asm'
  25. gimp-composite-mmx.c:101: error: unknown register name '%mm1' in 'asm'
  26. diff -dur gimp-2.2.8/app/composite/gimp-composite-mmx.c gimp-2.2.8-p/app/composite/gimp-composite-mmx.c
  27. --- gimp-2.2.8/app/composite/gimp-composite-mmx.c 2005-01-11 12:27:25.000000000 +0100
  28. +++ gimp-2.2.8-p/app/composite/gimp-composite-mmx.c 2005-10-22 13:37:05.000000000 +0200
  29. @@ -94,7 +94,7 @@
  30. asm volatile ("movq %0,%%mm0"
  31. : /* empty */
  32. : "m" (*rgba8_alpha_mask_64)
  33. - : "%mm0");
  34. + );
  35. for (; n_pixels >= 2; n_pixels -= 2)
  36. {
  37. @@ -110,7 +110,7 @@
  38. "\tmovq %%mm1, %0\n"
  39. : "=m" (*d)
  40. : "m" (*a), "m" (*b)
  41. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  42. + );
  43. a++;
  44. b++;
  45. d++;
  46. @@ -130,7 +130,7 @@
  47. "\tmovd %%mm1, %0\n"
  48. : "=m" (*d)
  49. : "m" (*a), "m" (*b)
  50. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  51. + );
  52. }
  53. asm("emms");
  54. @@ -192,7 +192,7 @@
  55. "\tmovq %%mm7,%0\n"
  56. : "=m" (*d)
  57. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  58. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  59. + );
  60. d++;
  61. b++;
  62. a++;
  63. @@ -246,7 +246,7 @@
  64. "\tmovd %%mm7,%0\n"
  65. : "=m" (*d)
  66. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  67. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  68. + : pdivwqX_clobber);
  69. }
  70. asm("emms");
  71. @@ -269,7 +269,7 @@
  72. "\tmovq %%mm2, %0\n"
  73. : "=m" (*d)
  74. : "m" (*a), "m" (*b)
  75. - : "%mm1", "%mm2", "%mm3", "%mm4");
  76. + );
  77. a++;
  78. b++;
  79. d++;
  80. @@ -283,7 +283,7 @@
  81. "\tmovd %%mm2, %0\n"
  82. : "=m" (*d)
  83. : "m" (*a), "m" (*b)
  84. - : "%mm2", "%mm3", "%mm4");
  85. + );
  86. }
  87. asm("emms");
  88. @@ -297,7 +297,7 @@
  89. uint64 *b = (uint64 *) _op->B;
  90. gulong n_pixels = _op->n_pixels;
  91. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  92. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  93. for (; n_pixels >= 2; n_pixels -= 2)
  94. {
  95. @@ -316,7 +316,7 @@
  96. "\tmovq %%mm1, %0\n"
  97. : "=m" (*d)
  98. : "m" (*a), "m" (*b)
  99. - : "%mm1", "%mm2", "%mm3", "%mm4");
  100. + );
  101. a++;
  102. b++;
  103. d++;
  104. @@ -339,7 +339,7 @@
  105. "\tmovd %%mm1, %0\n"
  106. : "=m" (*d)
  107. : "m" (*a), "m" (*b)
  108. - : "%mm1", "%mm2", "%mm3", "%mm4");
  109. + );
  110. }
  111. asm("emms");
  112. @@ -358,7 +358,7 @@
  113. "\tmovq %1, %%mm7\n"
  114. :
  115. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w1_64)
  116. - : "%mm0", "%mm7");
  117. + );
  118. for (; n_pixels >= 2; n_pixels -= 2)
  119. {
  120. @@ -398,7 +398,7 @@
  121. "\tmovq %%mm3,%0\n"
  122. : "=m" (*d)
  123. : "m" (*a), "m" (*b), "m" (*rgba8_alpha_mask_64)
  124. - : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  125. + : pdivwuqX_clobber);
  126. a++;
  127. b++;
  128. d++;
  129. @@ -442,7 +442,7 @@
  130. "\tmovd %%mm3,%0\n"
  131. : "=m" (*d)
  132. : "m" (*a), "m" (*b), "m" (*rgba8_alpha_mask_64)
  133. - : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  134. + : pdivwuqX_clobber);
  135. }
  136. asm("emms");
  137. @@ -495,7 +495,7 @@
  138. "\tmovq %%mm7,%0\n"
  139. : "=m" (*d)
  140. : "m" (*a), "m" (*b), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  141. - : pdivwuqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  142. + : pdivwuqX_clobber);
  143. a++;
  144. b++;
  145. d++;
  146. @@ -538,7 +538,7 @@
  147. "\tmovd %%mm7,%2\n"
  148. : /* empty */
  149. : "m" (*a), "m" (*b), "m" (*d), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  150. - : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  151. + : pdivwuqX_clobber);
  152. }
  153. asm("emms");
  154. @@ -558,7 +558,7 @@
  155. "movq %1,%%mm7\n"
  156. : /* no outputs */
  157. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  158. - : "%mm0", "%mm7", "%mm6");
  159. + );
  160. for (; n_pixels >= 2; n_pixels -= 2)
  161. {
  162. @@ -589,7 +589,7 @@
  163. "\tmovq %%mm1,%0\n"
  164. : "=m" (*d)
  165. : "m" (*a), "m" (*b)
  166. - : "%mm1", "%mm2", "%mm3", "%mm4");
  167. + );
  168. a++;
  169. b++;
  170. d++;
  171. @@ -620,7 +620,7 @@
  172. "\tmovd %%mm1, %0\n"
  173. : "=m" (*d)
  174. : "m" (*a), "m" (*b)
  175. - : "%mm1", "%mm2", "%mm3", "%mm4");
  176. + );
  177. }
  178. asm("emms");
  179. @@ -639,7 +639,7 @@
  180. "movq %1, %%mm7\n"
  181. : /* empty */
  182. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  183. - : "%mm0", "%mm6", "%mm7");
  184. +);
  185. for (; n_pixels >= 2; n_pixels -= 2)
  186. {
  187. @@ -667,7 +668,7 @@
  188. "\tmovq %%mm1, %0\n"
  189. : "=m" (*d)
  190. : "m" (*a), "m" (*b)
  191. - : "%mm1", "%mm2", "%mm3", "%mm4");
  192. +);
  193. a++;
  194. b++;
  195. d++;
  196. @@ -697,7 +699,7 @@
  197. "\tmovd %%mm1, %0\n"
  198. : "=m" (*d)
  199. : "m" (*a), "m" (*b)
  200. - : "%mm1", "%mm2", "%mm3", "%mm4");
  201. + );
  202. }
  203. asm("emms");
  204. @@ -711,7 +713,7 @@
  205. uint64 *b = (uint64 *) _op->B;
  206. gulong n_pixels = _op->n_pixels;
  207. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  208. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  209. for (; n_pixels >= 2; n_pixels -= 2)
  210. {
  211. @@ -727,7 +729,7 @@
  212. "\tmovq %%mm1, %0\n"
  213. : "=m" (*d)
  214. : "m" (*a), "m" (*b)
  215. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  216. + );
  217. a++;
  218. b++;
  219. d++;
  220. @@ -750,7 +752,7 @@
  221. "\tmovd %%mm1, %0\n"
  222. : "=m" (*d)
  223. : "m" (*a), "m" (*b)
  224. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  225. + );
  226. }
  227. asm("emms");
  228. @@ -770,7 +772,7 @@
  229. "pxor %%mm6,%%mm6\n"
  230. : /* empty */
  231. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  232. - : "%mm6", "%mm7", "%mm0");
  233. + );
  234. for (; n_pixels >= 2; n_pixels -= 2)
  235. {
  236. @@ -797,7 +799,7 @@
  237. "\tmovq %%mm1, %0\n"
  238. : "=m" (*d)
  239. : "m" (*a), "m" (*b)
  240. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  241. + );
  242. a++;
  243. b++;
  244. d++;
  245. @@ -824,7 +826,7 @@
  246. "\tmovd %%mm1, %0\n"
  247. : "=m" (*d)
  248. : "m" (*a), "m" (*b)
  249. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  250. + );
  251. }
  252. asm("emms");
  253. @@ -892,7 +894,7 @@
  254. asm volatile ("pxor %%mm0,%%mm0\n"
  255. "movq %0,%%mm7"
  256. : /* empty */
  257. - : "m" (*rgba8_w128_64) : "%mm0");
  258. + : "m" (*rgba8_w128_64) );
  259. for (; n_pixels >= 2; n_pixels -= 2)
  260. {
  261. @@ -943,7 +945,7 @@
  262. "\tmovq %%mm1,%2\n"
  263. : "+m" (*a), "+m" (*b), "+m" (*d)
  264. : "m" (*rgba8_w2_64), "m" (*rgba8_alpha_mask_64)
  265. - : "%mm1", "%mm2", "%mm3", "%mm4");
  266. + );
  267. a++;
  268. b++;
  269. d++;
  270. @@ -998,7 +1000,7 @@
  271. "\tmovd %%mm1,%0\n"
  272. : "=m" (*d)
  273. : "m" (*a), "m" (*b), "m" (*rgba8_w2_64), "m" (*rgba8_alpha_mask_64)
  274. - : "%mm1", "%mm2", "%mm3", "%mm4");
  275. + );
  276. }
  277. asm("emms");
  278. @@ -1024,7 +1026,7 @@
  279. "\tmovq %1,%%mm7\n"
  280. : /* empty */
  281. : "m" (_op->scale.scale), "m" (*rgba8_w128_64)
  282. - : "%eax", "%ebx", "%mm0", "%mm5", "%mm6", "%mm7");
  283. + );
  284. for (; n_pixels >= 2; n_pixels -= 2)
  285. {
  286. @@ -1046,7 +1048,7 @@
  287. "\tmovq %%mm1,%0\n"
  288. : "=m" (*d)
  289. : "m" (*a)
  290. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  291. + );
  292. a++;
  293. d++;
  294. }
  295. @@ -1064,7 +1066,7 @@
  296. "\tmovd %%mm1,%0\n"
  297. : "=m" (*d)
  298. : "m" (*a)
  299. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  300. + );
  301. }
  302. asm("emms");
  303. @@ -1083,7 +1085,7 @@
  304. "movq %1,%%mm7\n"
  305. : /* empty */
  306. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  307. - : "%mm0", "%mm6", "%mm7");
  308. + );
  309. for (; n_pixels >= 2; n_pixels -= 2)
  310. {
  311. @@ -1134,7 +1136,7 @@
  312. "\tmovq %%mm1,%0\n"
  313. : "=m" (*d)
  314. : "m" (*a), "m" (*b)
  315. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  316. + );
  317. a++;
  318. b++;
  319. d++;
  320. @@ -1189,7 +1191,7 @@
  321. "\tmovd %%mm1,%0\n"
  322. : "=m" (*d)
  323. : "m" (*a), "m" (*b)
  324. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  325. + );
  326. }
  327. asm volatile ("emms");
  328. @@ -1204,7 +1206,7 @@
  329. uint64 *b = (uint64 *) _op->B;
  330. gulong n_pixels = _op->n_pixels;
  331. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  332. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  333. for (; n_pixels >= 2; n_pixels -= 2)
  334. {
  335. @@ -1224,7 +1226,7 @@
  336. "\tmovq %%mm1,%0\n"
  337. : "=m" (*d)
  338. : "m" (*a), "m" (*b)
  339. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  340. + );
  341. a++;
  342. b++;
  343. d++;
  344. @@ -1248,7 +1250,7 @@
  345. "\tmovd %%mm1,%0\n"
  346. : "=m" (*d)
  347. : "m" (*a), "m" (*b)
  348. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  349. + );
  350. }
  351. asm volatile ("emms");
  352. @@ -1269,7 +1271,7 @@
  353. "\tmovq %%mm2,%1\n"
  354. : "+m" (*a), "+m" (*b)
  355. :
  356. - : "%mm1", "%mm2", "%mm3", "%mm4");
  357. + );
  358. a++;
  359. b++;
  360. }
  361. @@ -1282,7 +1284,7 @@
  362. "\tmovd %%mm2,%1\n"
  363. : "+m" (*a), "+m" (*b)
  364. :
  365. - : "%mm1", "%mm2", "%mm3", "%mm4");
  366. + );
  367. }
  368. asm("emms");
  369. diff -dur gimp-2.2.8/app/composite/gimp-composite-sse2.c gimp-2.2.8-p/app/composite/gimp-composite-sse2.c
  370. --- gimp-2.2.8/app/composite/gimp-composite-sse2.c 2005-05-06 14:27:50.000000000 +0200
  371. +++ gimp-2.2.8-p/app/composite/gimp-composite-sse2.c 2005-10-22 13:49:02.000000000 +0200
  372. @@ -100,7 +100,7 @@
  373. "\tmovq %1,%%mm0"
  374. : /* empty */
  375. : "m" (*rgba8_alpha_mask_128), "m" (*rgba8_alpha_mask_64)
  376. - : "%xmm0", "%mm0");
  377. + );
  378. for (; n_pixels >= 4; n_pixels -= 4)
  379. {
  380. @@ -117,7 +117,7 @@
  381. "\tmovdqu %%xmm1,%0\n"
  382. : "=m" (*D)
  383. : "m" (*A), "m" (*B)
  384. - : "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7");
  385. + );
  386. A++;
  387. B++;
  388. D++;
  389. @@ -141,7 +141,7 @@
  390. "\tmovq %%mm1,%0\n"
  391. : "=m" (*d)
  392. : "m" (*a), "m" (*b)
  393. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  394. + );
  395. a++;
  396. b++;
  397. d++;
  398. @@ -161,7 +161,7 @@
  399. "\tmovd %%mm1,%0\n"
  400. : "=m" (*d)
  401. : "m" (*a), "m" (*b)
  402. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  403. + );
  404. }
  405. asm("emms");
  406. @@ -195,7 +195,7 @@
  407. "\tmovdqu %%xmm2,%0\n"
  408. : "=m" (*D)
  409. : "m" (*A), "m" (*B)
  410. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  411. + );
  412. A++;
  413. B++;
  414. D++;
  415. @@ -212,7 +212,7 @@
  416. "\tmovq %%mm2, %0\n"
  417. : "=m" (*d)
  418. : "m" (*a), "m" (*b)
  419. - : "%mm1", "%mm2", "%mm3", "%mm4");
  420. + );
  421. a++;
  422. b++;
  423. d++;
  424. @@ -226,7 +226,7 @@
  425. "\tmovd %%mm2, %0\n"
  426. : "=m" (*d)
  427. : "m" (*a), "m" (*b)
  428. - : "%mm2", "%mm3", "%mm4");
  429. + );
  430. }
  431. asm("emms");
  432. @@ -247,7 +247,7 @@
  433. "\tmovdqu %1,%%xmm0"
  434. : /* */
  435. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_alpha_mask_128)
  436. - : "%mm0", "%xmm0");
  437. + );
  438. for (; n_pixels >= 4; n_pixels -= 4)
  439. {
  440. @@ -266,7 +266,7 @@
  441. "\tmovdqu %%xmm1,%0\n"
  442. : "=m" (*D)
  443. : "m" (*A), "m" (*B)
  444. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5");
  445. + );
  446. A++;
  447. B++;
  448. D++;
  449. @@ -293,7 +293,7 @@
  450. "\tmovq %%mm1, %0\n"
  451. : "=m" (*d)
  452. : "m" (*a), "m" (*b)
  453. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  454. + );
  455. a++;
  456. b++;
  457. d++;
  458. @@ -316,7 +316,7 @@
  459. "\tmovd %%mm1, %0\n"
  460. : "=m" (*d)
  461. : "m" (*a), "m" (*b)
  462. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  463. + );
  464. }
  465. asm("emms");
  466. @@ -366,7 +366,7 @@
  467. "\tmovdqu %%xmm7,%0\n"
  468. : "=m" (*op.D)
  469. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_128), "m" (*rgba8_alpha_mask_128)
  470. - : "%eax", "%ecx", "%edx", "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7");
  471. + );
  472. op.A += 16;
  473. op.B += 16;
  474. op.D += 16;
  475. @@ -409,7 +409,7 @@
  476. "\tmovq %%mm7,%0\n"
  477. : (*op.D)
  478. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  479. - : "%eax", "%ecx", "%edx", "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  480. + );
  481. op.A += 8;
  482. op.B += 8;
  483. op.D += 8;
  484. @@ -452,7 +452,7 @@
  485. "\tmovd %%mm7,%0\n"
  486. : "=m" (*op.D)
  487. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  488. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  489. + );
  490. }
  491. asm("emms");
  492. @@ -478,7 +478,7 @@
  493. "\tmovdqu %3,%%xmm7\n"
  494. : /* empty */
  495. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64), "m" (*rgba8_alpha_mask_128), "m" (*rgba8_w128_128)
  496. - : "%mm0", "%mm6", "%mm7", "%xmm0", "%xmm6", "%xmm7");
  497. + );
  498. for (; n_pixels >= 4; n_pixels -= 4)
  499. {
  500. @@ -509,7 +509,7 @@
  501. "\tmovdqu %%xmm1,%0\n"
  502. : "=m" (*D)
  503. : "m" (*A), "m" (*B)
  504. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  505. + );
  506. A++;
  507. B++;
  508. D++;
  509. @@ -548,7 +548,7 @@
  510. "\tmovq %%mm1,%0\n"
  511. : "=m" (*d)
  512. : "m" (*a), "m" (*b)
  513. - : "%mm1", "%mm2", "%mm3", "%mm4");
  514. + );
  515. a++;
  516. b++;
  517. d++;
  518. @@ -573,7 +573,7 @@
  519. "\tmovd %%mm1, %0\n"
  520. : "=m" (*d)
  521. : "m" (*a), "m" (*b)
  522. - : "%mm1", "%mm2", "%mm3", "%mm4");
  523. + );
  524. }
  525. asm("emms");
  526. @@ -590,7 +590,7 @@
  527. uint128 *B = (uint128 *) _op->B;
  528. gulong n_pixels = _op->n_pixels;
  529. - asm volatile ("movdqu %0,%%xmm0" : : "m" (*rgba8_alpha_mask_64) : "%xmm0");
  530. + asm volatile ("movdqu %0,%%xmm0" : : "m" (*rgba8_alpha_mask_64) );
  531. for (; n_pixels >= 4; n_pixels -= 4)
  532. {
  533. @@ -606,7 +606,7 @@
  534. "\tmovdqu %%xmm1, %0\n"
  535. : "=m" (*D)
  536. : "m" (*A), "m" (*B)
  537. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  538. + );
  539. A++;
  540. B++;
  541. D++;
  542. @@ -630,7 +630,7 @@
  543. "\tmovq %%mm1, %0\n"
  544. : "=m" (*d)
  545. : "m" (*a), "m" (*b)
  546. - : "%mm1", "%mm2", "%mm3", "%mm4");
  547. + );
  548. a++;
  549. b++;
  550. d++;
  551. @@ -650,7 +650,7 @@
  552. "\tmovd %%mm1, %0\n"
  553. : "=m" (*d)
  554. : "m" (*a), "m" (*b)
  555. - : "%mm1", "%mm2", "%mm3", "%mm4");
  556. + );
  557. }
  558. asm("emms");
  559. @@ -671,7 +671,7 @@
  560. "\tmovdqu %1,%%xmm0\n"
  561. : /* empty */
  562. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_alpha_mask_128)
  563. - : "%mm0", "%xmm0");
  564. + );
  565. for (; n_pixels >= 4; n_pixels -= 4)
  566. {
  567. @@ -688,7 +688,7 @@
  568. "\tmovdqu %%xmm1,%0\n"
  569. : "=m" (*D)
  570. : "m" (*A), "m" (*B)
  571. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  572. + );
  573. A++;
  574. B++;
  575. D++;
  576. @@ -712,7 +712,7 @@
  577. "\tmovq %%mm1,%0\n"
  578. : "=m" (*d)
  579. : "m" (*a), "m" (*b)
  580. - : "%mm1", "%mm2", "%mm3", "%mm4");
  581. + );
  582. a++;
  583. b++;
  584. d++;
  585. @@ -732,7 +732,7 @@
  586. "\tmovd %%mm1,%0\n"
  587. : "=m" (*d)
  588. : "m" (*a), "m" (*b)
  589. - : "%mm1", "%mm2", "%mm3", "%mm4");
  590. + );
  591. }
  592. asm("emms");
  593. @@ -772,7 +772,6 @@
  594. "+m" (op.A[2]), "+m" (op.B[2]),
  595. "+m" (op.A[3]), "+m" (op.B[3])
  596. : /* empty */
  597. - : "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7"
  598. );
  599. #else
  600. asm volatile (" movdqu %0,%%xmm0\n"
  601. @@ -828,7 +827,7 @@
  602. "\tmovdqu %%xmm2,%1\n"
  603. : "+m" (*op.A), "+m" (*op.B)
  604. : /* empty */
  605. - : "%xmm2", "%xmm3");
  606. + );
  607. op.A += 16;
  608. op.B += 16;
  609. }
  610. @@ -841,7 +840,7 @@
  611. "\tmovq %%mm2,%1\n"
  612. : "+m" (*op.A), "+m" (*op.B)
  613. : /* empty */
  614. - : "%mm2", "%mm3");
  615. + );
  616. op.A += 8;
  617. op.B += 8;
  618. }
  619. @@ -854,7 +853,7 @@
  620. "\tmovd %%mm2,%1\n"
  621. : "+m" (*op.A), "+m" (*op.B)
  622. : /* empty */
  623. - : "%mm1", "%mm2", "%mm3", "%mm4");
  624. + );
  625. }
  626. asm("emms");
  627. diff -dur gimp-2.2.8/app/composite/gimp-composite-sse.c gimp-2.2.8-p/app/composite/gimp-composite-sse.c
  628. --- gimp-2.2.8/app/composite/gimp-composite-sse.c 2005-01-08 00:58:33.000000000 +0100
  629. +++ gimp-2.2.8-p/app/composite/gimp-composite-sse.c 2005-10-22 13:42:12.000000000 +0200
  630. @@ -72,7 +72,7 @@
  631. asm volatile ("movq %0,%%mm0"
  632. : /* empty */
  633. : "m" (*rgba8_alpha_mask_64)
  634. - : "%mm0");
  635. + );
  636. for (; n_pixels >= 2; n_pixels -= 2)
  637. {
  638. @@ -88,7 +88,7 @@
  639. "\tmovq %%mm1, %0\n"
  640. : "=m" (*d)
  641. : "m" (*a), "m" (*b)
  642. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  643. + );
  644. a++;
  645. b++;
  646. d++;
  647. @@ -108,7 +108,7 @@
  648. "\tmovd %%mm1, %0\n"
  649. : "=m" (*d)
  650. : "m" (*a), "m" (*b)
  651. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  652. + );
  653. }
  654. asm("emms");
  655. @@ -171,7 +171,7 @@
  656. "\tmovq %%mm7,%0\n"
  657. : "=m" (*d)
  658. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  659. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  660. + : pdivwqX_clobber);
  661. d++;
  662. b++;
  663. a++;
  664. @@ -225,7 +225,7 @@
  665. "\tmovd %%mm7,%0\n"
  666. : "=m" (*d)
  667. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  668. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  669. + : pdivwqX_clobber);
  670. }
  671. asm("emms");
  672. @@ -248,7 +248,7 @@
  673. "\tmovq %%mm2, %0\n"
  674. : "=m" (*d)
  675. : "m" (*a), "m" (*b)
  676. - : "%mm1", "%mm2", "%mm3", "%mm4");
  677. + );
  678. a++;
  679. b++;
  680. d++;
  681. @@ -262,7 +262,7 @@
  682. "\tmovd %%mm2, %0\n"
  683. : "=m" (*d)
  684. : "m" (*a), "m" (*b)
  685. - : "%mm2", "%mm3", "%mm4");
  686. + );
  687. }
  688. asm("emms");
  689. @@ -276,7 +276,7 @@
  690. uint64 *b = (uint64 *) _op->B;
  691. gulong n_pixels = _op->n_pixels;
  692. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  693. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  694. for (; n_pixels >= 2; n_pixels -= 2)
  695. {
  696. @@ -295,7 +295,7 @@
  697. "\tmovq %%mm1, %0\n"
  698. : "=m" (*d)
  699. : "m" (*a), "m" (*b)
  700. - : "%mm1", "%mm2", "%mm3", "%mm4");
  701. + );
  702. a++;
  703. b++;
  704. d++;
  705. @@ -318,7 +318,7 @@
  706. "\tmovd %%mm1, %0\n"
  707. : "=m" (*d)
  708. : "m" (*a), "m" (*b)
  709. - : "%mm1", "%mm2", "%mm3", "%mm4");
  710. + );
  711. }
  712. asm("emms");
  713. @@ -334,7 +334,7 @@
  714. "\tmovq %1, %%mm7\n"
  715. :
  716. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w1_64)
  717. - : "%mm0", "%mm7");
  718. + );
  719. for (; op.n_pixels >= 2; op.n_pixels -= 2)
  720. {
  721. @@ -374,7 +374,7 @@
  722. "\tmovq %%mm3,%0\n"
  723. : "=m" (*op.D)
  724. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_alpha_mask_64)
  725. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  726. + );
  727. op.A += 8;
  728. op.B += 8;
  729. op.D += 8;
  730. @@ -419,7 +419,7 @@
  731. "\tmovd %%mm3,%0\n"
  732. : "=m" (*op.D)
  733. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_alpha_mask_64)
  734. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  735. + );
  736. }
  737. asm("emms");
  738. @@ -469,7 +469,7 @@
  739. "\tmovq %%mm7,%0\n"
  740. : "=m" (*op.D)
  741. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  742. - : "%eax", "%ecx", "%edx", "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  743. + );
  744. op.A += 8;
  745. op.B += 8;
  746. op.D += 8;
  747. @@ -512,7 +512,7 @@
  748. "\tmovd %%mm7,%2\n"
  749. : "=m" (*op.D)
  750. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  751. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  752. + );
  753. }
  754. asm("emms");
  755. @@ -533,7 +533,7 @@
  756. "\tmovq %1,%%mm7\n"
  757. : /* empty */
  758. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  759. - : "%mm0", "%mm6", "%mm7");
  760. + );
  761. for (; n_pixels >= 2; n_pixels -= 2)
  762. @@ -565,7 +565,7 @@
  763. "\tmovq %%mm1,%0\n"
  764. : "=m" (*d)
  765. : "m" (*a), "m" (*b)
  766. - : "%mm1", "%mm2", "%mm3", "%mm4");
  767. + );
  768. a++;
  769. b++;
  770. d++;
  771. @@ -597,7 +597,7 @@
  772. "\tmovd %%mm1, %0\n"
  773. : "=m" (*d)
  774. : "m" (*a), "m" (*b)
  775. - : "%mm1", "%mm2", "%mm3", "%mm4");
  776. + );
  777. }
  778. asm("emms");
  779. @@ -616,7 +616,7 @@
  780. "movq %1, %%mm7\n"
  781. : /* empty */
  782. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  783. - : "%mm0", "%mm6", "%mm7");
  784. + );
  785. for (; n_pixels >= 2; n_pixels -= 2)
  786. {
  787. @@ -644,7 +644,7 @@
  788. "\tmovq %%mm1, %0\n"
  789. : "=m" (*d)
  790. : "m" (*a), "m" (*b)
  791. - : "%mm1", "%mm2", "%mm3", "%mm4");
  792. + );
  793. a++;
  794. b++;
  795. d++;
  796. @@ -675,7 +675,7 @@
  797. "\tmovd %%mm1, %0\n"
  798. : "+m" (*d)
  799. : "m" (*a), "m" (*b)
  800. - : "%mm1", "%mm2", "%mm3", "%mm4");
  801. + );
  802. }
  803. asm("emms");
  804. @@ -689,7 +689,7 @@
  805. uint64 *b = (uint64 *) _op->B;
  806. gulong n_pixels = _op->n_pixels;
  807. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  808. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  809. for (; n_pixels >= 2; n_pixels -= 2)
  810. {
  811. @@ -705,7 +705,7 @@
  812. "\tmovq %%mm1, %0\n"
  813. : "=m" (*d)
  814. : "m" (*a), "m" (*b)
  815. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  816. + );
  817. a++;
  818. b++;
  819. d++;
  820. @@ -728,7 +728,7 @@
  821. "\tmovd %%mm1, %0\n"
  822. : "=m" (*d)
  823. : "m" (*a), "m" (*b)
  824. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  825. + );
  826. }
  827. asm("emms");
  828. @@ -742,9 +742,9 @@
  829. uint64 *b = (uint64 *) _op->B;
  830. gulong n_pixels = _op->n_pixels;
  831. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  832. - asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) : "%mm7");
  833. - asm volatile ("pxor %%mm6,%%mm6" : : : "%mm6");
  834. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  835. + asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) );
  836. + asm volatile ("pxor %%mm6,%%mm6" : : );
  837. for (; n_pixels >= 2; n_pixels -= 2)
  838. {
  839. @@ -771,7 +771,7 @@
  840. "\tmovq %%mm1, %0\n"
  841. : "=m" (*d)
  842. : "m" (*a), "m" (*b)
  843. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  844. + );
  845. a++;
  846. b++;
  847. d++;
  848. @@ -798,7 +798,7 @@
  849. "\tmovd %%mm1, %0\n"
  850. : "=m" (*d)
  851. : "m" (*a), "m" (*b)
  852. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  853. + );
  854. }
  855. asm("emms");
  856. @@ -993,7 +993,7 @@
  857. "\tmovq %1,%%mm7\n"
  858. : /* empty */
  859. : "m" (_op->scale.scale), "m" (*rgba8_w128_64)
  860. - : "%eax", "%ebx", "%mm0", "%mm3", "%mm5", "%mm6", "%mm7");
  861. + );
  862. for (; n_pixels >= 2; n_pixels -= 2)
  863. {
  864. @@ -1015,7 +1015,7 @@
  865. "\tmovq %%mm1,%0\n"
  866. : "=m" (*d)
  867. : "m" (*a)
  868. - : "%mm1", "%mm2", "%mm4", "%mm5", "%mm7");
  869. + );
  870. a++;
  871. d++;
  872. }
  873. @@ -1033,7 +1033,7 @@
  874. "\tmovd %%mm1,%0\n"
  875. : "=m" (*d)
  876. : "m" (*a)
  877. - : "%mm1", "%mm2", "%mm4", "%mm5", "%mm6", "%mm7");
  878. + );
  879. }
  880. asm("emms");
  881. @@ -1047,8 +1047,8 @@
  882. uint64 *b = (uint64 *) _op->B;
  883. gulong n_pixels = _op->n_pixels;
  884. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  885. - asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) : "%mm7");
  886. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  887. + asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) );
  888. asm volatile ("pxor %mm6, %mm6");
  889. for (; n_pixels >= 2; n_pixels -= 2)
  890. @@ -1100,7 +1100,7 @@
  891. "\tmovq %%mm1,%0\n"
  892. : "=m" (*d)
  893. : "m" (*a), "m" (*b)
  894. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  895. + );
  896. a++;
  897. b++;
  898. d++;
  899. @@ -1155,7 +1155,7 @@
  900. "\tmovd %%mm1,%0\n"
  901. : "=m" (*d)
  902. : "m" (*a), "m" (*b)
  903. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  904. + );
  905. }
  906. asm("emms");
  907. @@ -1170,7 +1170,7 @@
  908. uint64 *b = (uint64 *) _op->B;
  909. gulong n_pixels = _op->n_pixels;
  910. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  911. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  912. for (; n_pixels >= 2; n_pixels -= 2)
  913. {
  914. @@ -1186,7 +1186,7 @@
  915. "\tmovq %%mm1,%0\n"
  916. : "=m" (*d)
  917. : "m" (*a), "m" (*b)
  918. - : "%mm1", "%mm2", "%mm3", "%mm4");
  919. + );
  920. a++;
  921. b++;
  922. d++;
  923. @@ -1206,7 +1206,7 @@
  924. "\tmovd %%mm1,%0\n"
  925. : "=m" (*d)
  926. : "m" (*a), "m" (*b)
  927. - : "%mm1", "%mm2", "%mm3", "%mm4");
  928. + );
  929. }
  930. asm("emms");
  931. @@ -1227,7 +1227,7 @@
  932. "\tmovq %%mm2,%1\n"
  933. : "+m" (*a), "+m" (*b)
  934. :
  935. - : "%mm1", "%mm2", "%mm3", "%mm4");
  936. + );
  937. a++;
  938. b++;
  939. }
  940. @@ -1240,7 +1240,7 @@
  941. "\tmovd %%mm2,%1\n"
  942. : "+m" (*a), "+m" (*b)
  943. : /* empty */
  944. - : "%mm1", "%mm2", "%mm3", "%mm4");
  945. + );
  946. }
  947. asm("emms");
  948. @@ -1390,7 +1390,7 @@
  949. "\tmovq %%mm7,(%2); addl $8,%2\n"
  950. : "+r" (op.A), "+r" (op.B), "+r" (op.D)
  951. : "m" (*va8_b255), "m" (*va8_w1), "m" (*va8_w255), "m" (*va8_alpha_mask)
  952. - : "%mm1", "%mm2", "%mm3", "%mm4");
  953. + );
  954. }
  955. if (op.n_pixels)
  956. @@ -1441,7 +1441,7 @@
  957. "\tmovd %%mm7,(%2)\n"
  958. : /* empty */
  959. : "r" (op.A), "r" (op.B), "r" (op.D), "m" (*va8_b255), "m" (*va8_w1), "m" (*va8_w255), "m" (*va8_alpha_mask)
  960. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  961. + );
  962. }
  963. asm("emms");