mirror of the now-defunct rocklinux.org
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

1021 lines
32 KiB

  1. Fixes for errors like:
  2. gimp-composite-mmx.c: In function 'gimp_composite_addition_rgba8_rgba8_rgba8_mmx':
  3. gimp-composite-mmx.c:94: error: unknown register name '%mm0' in 'asm'
  4. gimp-composite-mmx.c:101: error: unknown register name '%mm4' in 'asm'
  5. gimp-composite-mmx.c:101: error: unknown register name '%mm3' in 'asm'
  6. gimp-composite-mmx.c:101: error: unknown register name '%mm2' in 'asm'
  7. gimp-composite-mmx.c:101: error: unknown register name '%mm1' in 'asm'
  8. diff -dur gimp-2.2.8/app/composite/gimp-composite-mmx.c gimp-2.2.8-p/app/composite/gimp-composite-mmx.c
  9. --- gimp-2.2.8/app/composite/gimp-composite-mmx.c 2005-01-11 12:27:25.000000000 +0100
  10. +++ gimp-2.2.8-p/app/composite/gimp-composite-mmx.c 2005-10-22 13:37:05.000000000 +0200
  11. @@ -94,7 +94,7 @@
  12. asm volatile ("movq %0,%%mm0"
  13. : /* empty */
  14. : "m" (*rgba8_alpha_mask_64)
  15. - : "%mm0");
  16. + );
  17. for (; n_pixels >= 2; n_pixels -= 2)
  18. {
  19. @@ -110,7 +110,7 @@
  20. "\tmovq %%mm1, %0\n"
  21. : "=m" (*d)
  22. : "m" (*a), "m" (*b)
  23. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  24. + );
  25. a++;
  26. b++;
  27. d++;
  28. @@ -130,7 +130,7 @@
  29. "\tmovd %%mm1, %0\n"
  30. : "=m" (*d)
  31. : "m" (*a), "m" (*b)
  32. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  33. + );
  34. }
  35. asm("emms");
  36. @@ -192,7 +192,7 @@
  37. "\tmovq %%mm7,%0\n"
  38. : "=m" (*d)
  39. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  40. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  41. + );
  42. d++;
  43. b++;
  44. a++;
  45. @@ -246,7 +246,7 @@
  46. "\tmovd %%mm7,%0\n"
  47. : "=m" (*d)
  48. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  49. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  50. + : pdivwqX_clobber);
  51. }
  52. asm("emms");
  53. @@ -269,7 +269,7 @@
  54. "\tmovq %%mm2, %0\n"
  55. : "=m" (*d)
  56. : "m" (*a), "m" (*b)
  57. - : "%mm1", "%mm2", "%mm3", "%mm4");
  58. + );
  59. a++;
  60. b++;
  61. d++;
  62. @@ -283,7 +283,7 @@
  63. "\tmovd %%mm2, %0\n"
  64. : "=m" (*d)
  65. : "m" (*a), "m" (*b)
  66. - : "%mm2", "%mm3", "%mm4");
  67. + );
  68. }
  69. asm("emms");
  70. @@ -297,7 +297,7 @@
  71. uint64 *b = (uint64 *) _op->B;
  72. gulong n_pixels = _op->n_pixels;
  73. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  74. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  75. for (; n_pixels >= 2; n_pixels -= 2)
  76. {
  77. @@ -316,7 +316,7 @@
  78. "\tmovq %%mm1, %0\n"
  79. : "=m" (*d)
  80. : "m" (*a), "m" (*b)
  81. - : "%mm1", "%mm2", "%mm3", "%mm4");
  82. + );
  83. a++;
  84. b++;
  85. d++;
  86. @@ -339,7 +339,7 @@
  87. "\tmovd %%mm1, %0\n"
  88. : "=m" (*d)
  89. : "m" (*a), "m" (*b)
  90. - : "%mm1", "%mm2", "%mm3", "%mm4");
  91. + );
  92. }
  93. asm("emms");
  94. @@ -358,7 +358,7 @@
  95. "\tmovq %1, %%mm7\n"
  96. :
  97. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w1_64)
  98. - : "%mm0", "%mm7");
  99. + );
  100. for (; n_pixels >= 2; n_pixels -= 2)
  101. {
  102. @@ -398,7 +398,7 @@
  103. "\tmovq %%mm3,%0\n"
  104. : "=m" (*d)
  105. : "m" (*a), "m" (*b), "m" (*rgba8_alpha_mask_64)
  106. - : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  107. + : pdivwuqX_clobber);
  108. a++;
  109. b++;
  110. d++;
  111. @@ -442,7 +442,7 @@
  112. "\tmovd %%mm3,%0\n"
  113. : "=m" (*d)
  114. : "m" (*a), "m" (*b), "m" (*rgba8_alpha_mask_64)
  115. - : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  116. + : pdivwuqX_clobber);
  117. }
  118. asm("emms");
  119. @@ -495,7 +495,7 @@
  120. "\tmovq %%mm7,%0\n"
  121. : "=m" (*d)
  122. : "m" (*a), "m" (*b), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  123. - : pdivwuqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  124. + : pdivwuqX_clobber);
  125. a++;
  126. b++;
  127. d++;
  128. @@ -538,7 +538,7 @@
  129. "\tmovd %%mm7,%2\n"
  130. : /* empty */
  131. : "m" (*a), "m" (*b), "m" (*d), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  132. - : pdivwuqX_clobber, "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  133. + : pdivwuqX_clobber);
  134. }
  135. asm("emms");
  136. @@ -558,7 +558,7 @@
  137. "movq %1,%%mm7\n"
  138. : /* no outputs */
  139. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  140. - : "%mm0", "%mm7", "%mm6");
  141. + );
  142. for (; n_pixels >= 2; n_pixels -= 2)
  143. {
  144. @@ -589,7 +589,7 @@
  145. "\tmovq %%mm1,%0\n"
  146. : "=m" (*d)
  147. : "m" (*a), "m" (*b)
  148. - : "%mm1", "%mm2", "%mm3", "%mm4");
  149. + );
  150. a++;
  151. b++;
  152. d++;
  153. @@ -620,7 +620,7 @@
  154. "\tmovd %%mm1, %0\n"
  155. : "=m" (*d)
  156. : "m" (*a), "m" (*b)
  157. - : "%mm1", "%mm2", "%mm3", "%mm4");
  158. + );
  159. }
  160. asm("emms");
  161. @@ -639,7 +639,7 @@
  162. "movq %1, %%mm7\n"
  163. : /* empty */
  164. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  165. - : "%mm0", "%mm6", "%mm7");
  166. +);
  167. for (; n_pixels >= 2; n_pixels -= 2)
  168. {
  169. @@ -667,7 +668,7 @@
  170. "\tmovq %%mm1, %0\n"
  171. : "=m" (*d)
  172. : "m" (*a), "m" (*b)
  173. - : "%mm1", "%mm2", "%mm3", "%mm4");
  174. +);
  175. a++;
  176. b++;
  177. d++;
  178. @@ -697,7 +699,7 @@
  179. "\tmovd %%mm1, %0\n"
  180. : "=m" (*d)
  181. : "m" (*a), "m" (*b)
  182. - : "%mm1", "%mm2", "%mm3", "%mm4");
  183. + );
  184. }
  185. asm("emms");
  186. @@ -711,7 +713,7 @@
  187. uint64 *b = (uint64 *) _op->B;
  188. gulong n_pixels = _op->n_pixels;
  189. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  190. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  191. for (; n_pixels >= 2; n_pixels -= 2)
  192. {
  193. @@ -727,7 +729,7 @@
  194. "\tmovq %%mm1, %0\n"
  195. : "=m" (*d)
  196. : "m" (*a), "m" (*b)
  197. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  198. + );
  199. a++;
  200. b++;
  201. d++;
  202. @@ -750,7 +752,7 @@
  203. "\tmovd %%mm1, %0\n"
  204. : "=m" (*d)
  205. : "m" (*a), "m" (*b)
  206. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  207. + );
  208. }
  209. asm("emms");
  210. @@ -770,7 +772,7 @@
  211. "pxor %%mm6,%%mm6\n"
  212. : /* empty */
  213. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  214. - : "%mm6", "%mm7", "%mm0");
  215. + );
  216. for (; n_pixels >= 2; n_pixels -= 2)
  217. {
  218. @@ -797,7 +799,7 @@
  219. "\tmovq %%mm1, %0\n"
  220. : "=m" (*d)
  221. : "m" (*a), "m" (*b)
  222. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  223. + );
  224. a++;
  225. b++;
  226. d++;
  227. @@ -824,7 +826,7 @@
  228. "\tmovd %%mm1, %0\n"
  229. : "=m" (*d)
  230. : "m" (*a), "m" (*b)
  231. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  232. + );
  233. }
  234. asm("emms");
  235. @@ -892,7 +894,7 @@
  236. asm volatile ("pxor %%mm0,%%mm0\n"
  237. "movq %0,%%mm7"
  238. : /* empty */
  239. - : "m" (*rgba8_w128_64) : "%mm0");
  240. + : "m" (*rgba8_w128_64) );
  241. for (; n_pixels >= 2; n_pixels -= 2)
  242. {
  243. @@ -943,7 +945,7 @@
  244. "\tmovq %%mm1,%2\n"
  245. : "+m" (*a), "+m" (*b), "+m" (*d)
  246. : "m" (*rgba8_w2_64), "m" (*rgba8_alpha_mask_64)
  247. - : "%mm1", "%mm2", "%mm3", "%mm4");
  248. + );
  249. a++;
  250. b++;
  251. d++;
  252. @@ -998,7 +1000,7 @@
  253. "\tmovd %%mm1,%0\n"
  254. : "=m" (*d)
  255. : "m" (*a), "m" (*b), "m" (*rgba8_w2_64), "m" (*rgba8_alpha_mask_64)
  256. - : "%mm1", "%mm2", "%mm3", "%mm4");
  257. + );
  258. }
  259. asm("emms");
  260. @@ -1024,7 +1026,7 @@
  261. "\tmovq %1,%%mm7\n"
  262. : /* empty */
  263. : "m" (_op->scale.scale), "m" (*rgba8_w128_64)
  264. - : "%eax", "%ebx", "%mm0", "%mm5", "%mm6", "%mm7");
  265. + );
  266. for (; n_pixels >= 2; n_pixels -= 2)
  267. {
  268. @@ -1046,7 +1048,7 @@
  269. "\tmovq %%mm1,%0\n"
  270. : "=m" (*d)
  271. : "m" (*a)
  272. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  273. + );
  274. a++;
  275. d++;
  276. }
  277. @@ -1064,7 +1066,7 @@
  278. "\tmovd %%mm1,%0\n"
  279. : "=m" (*d)
  280. : "m" (*a)
  281. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  282. + );
  283. }
  284. asm("emms");
  285. @@ -1083,7 +1085,7 @@
  286. "movq %1,%%mm7\n"
  287. : /* empty */
  288. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  289. - : "%mm0", "%mm6", "%mm7");
  290. + );
  291. for (; n_pixels >= 2; n_pixels -= 2)
  292. {
  293. @@ -1134,7 +1136,7 @@
  294. "\tmovq %%mm1,%0\n"
  295. : "=m" (*d)
  296. : "m" (*a), "m" (*b)
  297. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  298. + );
  299. a++;
  300. b++;
  301. d++;
  302. @@ -1189,7 +1191,7 @@
  303. "\tmovd %%mm1,%0\n"
  304. : "=m" (*d)
  305. : "m" (*a), "m" (*b)
  306. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  307. + );
  308. }
  309. asm volatile ("emms");
  310. @@ -1204,7 +1206,7 @@
  311. uint64 *b = (uint64 *) _op->B;
  312. gulong n_pixels = _op->n_pixels;
  313. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  314. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  315. for (; n_pixels >= 2; n_pixels -= 2)
  316. {
  317. @@ -1224,7 +1226,7 @@
  318. "\tmovq %%mm1,%0\n"
  319. : "=m" (*d)
  320. : "m" (*a), "m" (*b)
  321. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  322. + );
  323. a++;
  324. b++;
  325. d++;
  326. @@ -1248,7 +1250,7 @@
  327. "\tmovd %%mm1,%0\n"
  328. : "=m" (*d)
  329. : "m" (*a), "m" (*b)
  330. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  331. + );
  332. }
  333. asm volatile ("emms");
  334. @@ -1269,7 +1271,7 @@
  335. "\tmovq %%mm2,%1\n"
  336. : "+m" (*a), "+m" (*b)
  337. :
  338. - : "%mm1", "%mm2", "%mm3", "%mm4");
  339. + );
  340. a++;
  341. b++;
  342. }
  343. @@ -1282,7 +1284,7 @@
  344. "\tmovd %%mm2,%1\n"
  345. : "+m" (*a), "+m" (*b)
  346. :
  347. - : "%mm1", "%mm2", "%mm3", "%mm4");
  348. + );
  349. }
  350. asm("emms");
  351. diff -dur gimp-2.2.8/app/composite/gimp-composite-sse2.c gimp-2.2.8-p/app/composite/gimp-composite-sse2.c
  352. --- gimp-2.2.8/app/composite/gimp-composite-sse2.c 2005-05-06 14:27:50.000000000 +0200
  353. +++ gimp-2.2.8-p/app/composite/gimp-composite-sse2.c 2005-10-22 13:49:02.000000000 +0200
  354. @@ -100,7 +100,7 @@
  355. "\tmovq %1,%%mm0"
  356. : /* empty */
  357. : "m" (*rgba8_alpha_mask_128), "m" (*rgba8_alpha_mask_64)
  358. - : "%xmm0", "%mm0");
  359. + );
  360. for (; n_pixels >= 4; n_pixels -= 4)
  361. {
  362. @@ -117,7 +117,7 @@
  363. "\tmovdqu %%xmm1,%0\n"
  364. : "=m" (*D)
  365. : "m" (*A), "m" (*B)
  366. - : "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7");
  367. + );
  368. A++;
  369. B++;
  370. D++;
  371. @@ -141,7 +141,7 @@
  372. "\tmovq %%mm1,%0\n"
  373. : "=m" (*d)
  374. : "m" (*a), "m" (*b)
  375. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  376. + );
  377. a++;
  378. b++;
  379. d++;
  380. @@ -161,7 +161,7 @@
  381. "\tmovd %%mm1,%0\n"
  382. : "=m" (*d)
  383. : "m" (*a), "m" (*b)
  384. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  385. + );
  386. }
  387. asm("emms");
  388. @@ -195,7 +195,7 @@
  389. "\tmovdqu %%xmm2,%0\n"
  390. : "=m" (*D)
  391. : "m" (*A), "m" (*B)
  392. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  393. + );
  394. A++;
  395. B++;
  396. D++;
  397. @@ -212,7 +212,7 @@
  398. "\tmovq %%mm2, %0\n"
  399. : "=m" (*d)
  400. : "m" (*a), "m" (*b)
  401. - : "%mm1", "%mm2", "%mm3", "%mm4");
  402. + );
  403. a++;
  404. b++;
  405. d++;
  406. @@ -226,7 +226,7 @@
  407. "\tmovd %%mm2, %0\n"
  408. : "=m" (*d)
  409. : "m" (*a), "m" (*b)
  410. - : "%mm2", "%mm3", "%mm4");
  411. + );
  412. }
  413. asm("emms");
  414. @@ -247,7 +247,7 @@
  415. "\tmovdqu %1,%%xmm0"
  416. : /* */
  417. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_alpha_mask_128)
  418. - : "%mm0", "%xmm0");
  419. + );
  420. for (; n_pixels >= 4; n_pixels -= 4)
  421. {
  422. @@ -266,7 +266,7 @@
  423. "\tmovdqu %%xmm1,%0\n"
  424. : "=m" (*D)
  425. : "m" (*A), "m" (*B)
  426. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5");
  427. + );
  428. A++;
  429. B++;
  430. D++;
  431. @@ -293,7 +293,7 @@
  432. "\tmovq %%mm1, %0\n"
  433. : "=m" (*d)
  434. : "m" (*a), "m" (*b)
  435. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  436. + );
  437. a++;
  438. b++;
  439. d++;
  440. @@ -316,7 +316,7 @@
  441. "\tmovd %%mm1, %0\n"
  442. : "=m" (*d)
  443. : "m" (*a), "m" (*b)
  444. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  445. + );
  446. }
  447. asm("emms");
  448. @@ -366,7 +366,7 @@
  449. "\tmovdqu %%xmm7,%0\n"
  450. : "=m" (*op.D)
  451. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_128), "m" (*rgba8_alpha_mask_128)
  452. - : "%eax", "%ecx", "%edx", "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7");
  453. + );
  454. op.A += 16;
  455. op.B += 16;
  456. op.D += 16;
  457. @@ -409,7 +409,7 @@
  458. "\tmovq %%mm7,%0\n"
  459. : (*op.D)
  460. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  461. - : "%eax", "%ecx", "%edx", "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  462. + );
  463. op.A += 8;
  464. op.B += 8;
  465. op.D += 8;
  466. @@ -452,7 +452,7 @@
  467. "\tmovd %%mm7,%0\n"
  468. : "=m" (*op.D)
  469. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  470. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  471. + );
  472. }
  473. asm("emms");
  474. @@ -478,7 +478,7 @@
  475. "\tmovdqu %3,%%xmm7\n"
  476. : /* empty */
  477. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64), "m" (*rgba8_alpha_mask_128), "m" (*rgba8_w128_128)
  478. - : "%mm0", "%mm6", "%mm7", "%xmm0", "%xmm6", "%xmm7");
  479. + );
  480. for (; n_pixels >= 4; n_pixels -= 4)
  481. {
  482. @@ -509,7 +509,7 @@
  483. "\tmovdqu %%xmm1,%0\n"
  484. : "=m" (*D)
  485. : "m" (*A), "m" (*B)
  486. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  487. + );
  488. A++;
  489. B++;
  490. D++;
  491. @@ -548,7 +548,7 @@
  492. "\tmovq %%mm1,%0\n"
  493. : "=m" (*d)
  494. : "m" (*a), "m" (*b)
  495. - : "%mm1", "%mm2", "%mm3", "%mm4");
  496. + );
  497. a++;
  498. b++;
  499. d++;
  500. @@ -573,7 +573,7 @@
  501. "\tmovd %%mm1, %0\n"
  502. : "=m" (*d)
  503. : "m" (*a), "m" (*b)
  504. - : "%mm1", "%mm2", "%mm3", "%mm4");
  505. + );
  506. }
  507. asm("emms");
  508. @@ -590,7 +590,7 @@
  509. uint128 *B = (uint128 *) _op->B;
  510. gulong n_pixels = _op->n_pixels;
  511. - asm volatile ("movdqu %0,%%xmm0" : : "m" (*rgba8_alpha_mask_64) : "%xmm0");
  512. + asm volatile ("movdqu %0,%%xmm0" : : "m" (*rgba8_alpha_mask_64) );
  513. for (; n_pixels >= 4; n_pixels -= 4)
  514. {
  515. @@ -606,7 +606,7 @@
  516. "\tmovdqu %%xmm1, %0\n"
  517. : "=m" (*D)
  518. : "m" (*A), "m" (*B)
  519. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  520. + );
  521. A++;
  522. B++;
  523. D++;
  524. @@ -630,7 +630,7 @@
  525. "\tmovq %%mm1, %0\n"
  526. : "=m" (*d)
  527. : "m" (*a), "m" (*b)
  528. - : "%mm1", "%mm2", "%mm3", "%mm4");
  529. + );
  530. a++;
  531. b++;
  532. d++;
  533. @@ -650,7 +650,7 @@
  534. "\tmovd %%mm1, %0\n"
  535. : "=m" (*d)
  536. : "m" (*a), "m" (*b)
  537. - : "%mm1", "%mm2", "%mm3", "%mm4");
  538. + );
  539. }
  540. asm("emms");
  541. @@ -671,7 +671,7 @@
  542. "\tmovdqu %1,%%xmm0\n"
  543. : /* empty */
  544. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_alpha_mask_128)
  545. - : "%mm0", "%xmm0");
  546. + );
  547. for (; n_pixels >= 4; n_pixels -= 4)
  548. {
  549. @@ -688,7 +688,7 @@
  550. "\tmovdqu %%xmm1,%0\n"
  551. : "=m" (*D)
  552. : "m" (*A), "m" (*B)
  553. - : "%xmm1", "%xmm2", "%xmm3", "%xmm4");
  554. + );
  555. A++;
  556. B++;
  557. D++;
  558. @@ -712,7 +712,7 @@
  559. "\tmovq %%mm1,%0\n"
  560. : "=m" (*d)
  561. : "m" (*a), "m" (*b)
  562. - : "%mm1", "%mm2", "%mm3", "%mm4");
  563. + );
  564. a++;
  565. b++;
  566. d++;
  567. @@ -732,7 +732,7 @@
  568. "\tmovd %%mm1,%0\n"
  569. : "=m" (*d)
  570. : "m" (*a), "m" (*b)
  571. - : "%mm1", "%mm2", "%mm3", "%mm4");
  572. + );
  573. }
  574. asm("emms");
  575. @@ -772,7 +772,6 @@
  576. "+m" (op.A[2]), "+m" (op.B[2]),
  577. "+m" (op.A[3]), "+m" (op.B[3])
  578. : /* empty */
  579. - : "%xmm0", "%xmm1", "%xmm2", "%xmm3", "%xmm4", "%xmm5", "%xmm6", "%xmm7"
  580. );
  581. #else
  582. asm volatile (" movdqu %0,%%xmm0\n"
  583. @@ -828,7 +827,7 @@
  584. "\tmovdqu %%xmm2,%1\n"
  585. : "+m" (*op.A), "+m" (*op.B)
  586. : /* empty */
  587. - : "%xmm2", "%xmm3");
  588. + );
  589. op.A += 16;
  590. op.B += 16;
  591. }
  592. @@ -841,7 +840,7 @@
  593. "\tmovq %%mm2,%1\n"
  594. : "+m" (*op.A), "+m" (*op.B)
  595. : /* empty */
  596. - : "%mm2", "%mm3");
  597. + );
  598. op.A += 8;
  599. op.B += 8;
  600. }
  601. @@ -854,7 +853,7 @@
  602. "\tmovd %%mm2,%1\n"
  603. : "+m" (*op.A), "+m" (*op.B)
  604. : /* empty */
  605. - : "%mm1", "%mm2", "%mm3", "%mm4");
  606. + );
  607. }
  608. asm("emms");
  609. diff -dur gimp-2.2.8/app/composite/gimp-composite-sse.c gimp-2.2.8-p/app/composite/gimp-composite-sse.c
  610. --- gimp-2.2.8/app/composite/gimp-composite-sse.c 2005-01-08 00:58:33.000000000 +0100
  611. +++ gimp-2.2.8-p/app/composite/gimp-composite-sse.c 2005-10-22 13:42:12.000000000 +0200
  612. @@ -72,7 +72,7 @@
  613. asm volatile ("movq %0,%%mm0"
  614. : /* empty */
  615. : "m" (*rgba8_alpha_mask_64)
  616. - : "%mm0");
  617. + );
  618. for (; n_pixels >= 2; n_pixels -= 2)
  619. {
  620. @@ -88,7 +88,7 @@
  621. "\tmovq %%mm1, %0\n"
  622. : "=m" (*d)
  623. : "m" (*a), "m" (*b)
  624. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  625. + );
  626. a++;
  627. b++;
  628. d++;
  629. @@ -108,7 +108,7 @@
  630. "\tmovd %%mm1, %0\n"
  631. : "=m" (*d)
  632. : "m" (*a), "m" (*b)
  633. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4");
  634. + );
  635. }
  636. asm("emms");
  637. @@ -171,7 +171,7 @@
  638. "\tmovq %%mm7,%0\n"
  639. : "=m" (*d)
  640. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  641. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  642. + : pdivwqX_clobber);
  643. d++;
  644. b++;
  645. a++;
  646. @@ -225,7 +225,7 @@
  647. "\tmovd %%mm7,%0\n"
  648. : "=m" (*d)
  649. : "m" (*a), "m" (*b), "m" (*rgba8_b255_64), "m" (*rgba8_w1_64), "m" (*rgba8_w255_64), "m" (*rgba8_alpha_mask_64)
  650. - : pdivwqX_clobber, "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  651. + : pdivwqX_clobber);
  652. }
  653. asm("emms");
  654. @@ -248,7 +248,7 @@
  655. "\tmovq %%mm2, %0\n"
  656. : "=m" (*d)
  657. : "m" (*a), "m" (*b)
  658. - : "%mm1", "%mm2", "%mm3", "%mm4");
  659. + );
  660. a++;
  661. b++;
  662. d++;
  663. @@ -262,7 +262,7 @@
  664. "\tmovd %%mm2, %0\n"
  665. : "=m" (*d)
  666. : "m" (*a), "m" (*b)
  667. - : "%mm2", "%mm3", "%mm4");
  668. + );
  669. }
  670. asm("emms");
  671. @@ -276,7 +276,7 @@
  672. uint64 *b = (uint64 *) _op->B;
  673. gulong n_pixels = _op->n_pixels;
  674. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  675. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  676. for (; n_pixels >= 2; n_pixels -= 2)
  677. {
  678. @@ -295,7 +295,7 @@
  679. "\tmovq %%mm1, %0\n"
  680. : "=m" (*d)
  681. : "m" (*a), "m" (*b)
  682. - : "%mm1", "%mm2", "%mm3", "%mm4");
  683. + );
  684. a++;
  685. b++;
  686. d++;
  687. @@ -318,7 +318,7 @@
  688. "\tmovd %%mm1, %0\n"
  689. : "=m" (*d)
  690. : "m" (*a), "m" (*b)
  691. - : "%mm1", "%mm2", "%mm3", "%mm4");
  692. + );
  693. }
  694. asm("emms");
  695. @@ -334,7 +334,7 @@
  696. "\tmovq %1, %%mm7\n"
  697. :
  698. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w1_64)
  699. - : "%mm0", "%mm7");
  700. + );
  701. for (; op.n_pixels >= 2; op.n_pixels -= 2)
  702. {
  703. @@ -374,7 +374,7 @@
  704. "\tmovq %%mm3,%0\n"
  705. : "=m" (*op.D)
  706. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_alpha_mask_64)
  707. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  708. + );
  709. op.A += 8;
  710. op.B += 8;
  711. op.D += 8;
  712. @@ -419,7 +419,7 @@
  713. "\tmovd %%mm3,%0\n"
  714. : "=m" (*op.D)
  715. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_alpha_mask_64)
  716. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  717. + );
  718. }
  719. asm("emms");
  720. @@ -469,7 +469,7 @@
  721. "\tmovq %%mm7,%0\n"
  722. : "=m" (*op.D)
  723. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  724. - : "%eax", "%ecx", "%edx", "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  725. + );
  726. op.A += 8;
  727. op.B += 8;
  728. op.D += 8;
  729. @@ -512,7 +512,7 @@
  730. "\tmovd %%mm7,%2\n"
  731. : "=m" (*op.D)
  732. : "m" (*op.A), "m" (*op.B), "m" (*rgba8_w256_64), "m" (*rgba8_alpha_mask_64)
  733. - : "%eax", "%ecx", "%edx", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  734. + );
  735. }
  736. asm("emms");
  737. @@ -533,7 +533,7 @@
  738. "\tmovq %1,%%mm7\n"
  739. : /* empty */
  740. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  741. - : "%mm0", "%mm6", "%mm7");
  742. + );
  743. for (; n_pixels >= 2; n_pixels -= 2)
  744. @@ -565,7 +565,7 @@
  745. "\tmovq %%mm1,%0\n"
  746. : "=m" (*d)
  747. : "m" (*a), "m" (*b)
  748. - : "%mm1", "%mm2", "%mm3", "%mm4");
  749. + );
  750. a++;
  751. b++;
  752. d++;
  753. @@ -597,7 +597,7 @@
  754. "\tmovd %%mm1, %0\n"
  755. : "=m" (*d)
  756. : "m" (*a), "m" (*b)
  757. - : "%mm1", "%mm2", "%mm3", "%mm4");
  758. + );
  759. }
  760. asm("emms");
  761. @@ -616,7 +616,7 @@
  762. "movq %1, %%mm7\n"
  763. : /* empty */
  764. : "m" (*rgba8_alpha_mask_64), "m" (*rgba8_w128_64)
  765. - : "%mm0", "%mm6", "%mm7");
  766. + );
  767. for (; n_pixels >= 2; n_pixels -= 2)
  768. {
  769. @@ -644,7 +644,7 @@
  770. "\tmovq %%mm1, %0\n"
  771. : "=m" (*d)
  772. : "m" (*a), "m" (*b)
  773. - : "%mm1", "%mm2", "%mm3", "%mm4");
  774. + );
  775. a++;
  776. b++;
  777. d++;
  778. @@ -675,7 +675,7 @@
  779. "\tmovd %%mm1, %0\n"
  780. : "+m" (*d)
  781. : "m" (*a), "m" (*b)
  782. - : "%mm1", "%mm2", "%mm3", "%mm4");
  783. + );
  784. }
  785. asm("emms");
  786. @@ -689,7 +689,7 @@
  787. uint64 *b = (uint64 *) _op->B;
  788. gulong n_pixels = _op->n_pixels;
  789. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  790. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  791. for (; n_pixels >= 2; n_pixels -= 2)
  792. {
  793. @@ -705,7 +705,7 @@
  794. "\tmovq %%mm1, %0\n"
  795. : "=m" (*d)
  796. : "m" (*a), "m" (*b)
  797. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  798. + );
  799. a++;
  800. b++;
  801. d++;
  802. @@ -728,7 +728,7 @@
  803. "\tmovd %%mm1, %0\n"
  804. : "=m" (*d)
  805. : "m" (*a), "m" (*b)
  806. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  807. + );
  808. }
  809. asm("emms");
  810. @@ -742,9 +742,9 @@
  811. uint64 *b = (uint64 *) _op->B;
  812. gulong n_pixels = _op->n_pixels;
  813. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  814. - asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) : "%mm7");
  815. - asm volatile ("pxor %%mm6,%%mm6" : : : "%mm6");
  816. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  817. + asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) );
  818. + asm volatile ("pxor %%mm6,%%mm6" : : );
  819. for (; n_pixels >= 2; n_pixels -= 2)
  820. {
  821. @@ -771,7 +771,7 @@
  822. "\tmovq %%mm1, %0\n"
  823. : "=m" (*d)
  824. : "m" (*a), "m" (*b)
  825. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  826. + );
  827. a++;
  828. b++;
  829. d++;
  830. @@ -798,7 +798,7 @@
  831. "\tmovd %%mm1, %0\n"
  832. : "=m" (*d)
  833. : "m" (*a), "m" (*b)
  834. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  835. + );
  836. }
  837. asm("emms");
  838. @@ -993,7 +993,7 @@
  839. "\tmovq %1,%%mm7\n"
  840. : /* empty */
  841. : "m" (_op->scale.scale), "m" (*rgba8_w128_64)
  842. - : "%eax", "%ebx", "%mm0", "%mm3", "%mm5", "%mm6", "%mm7");
  843. + );
  844. for (; n_pixels >= 2; n_pixels -= 2)
  845. {
  846. @@ -1015,7 +1015,7 @@
  847. "\tmovq %%mm1,%0\n"
  848. : "=m" (*d)
  849. : "m" (*a)
  850. - : "%mm1", "%mm2", "%mm4", "%mm5", "%mm7");
  851. + );
  852. a++;
  853. d++;
  854. }
  855. @@ -1033,7 +1033,7 @@
  856. "\tmovd %%mm1,%0\n"
  857. : "=m" (*d)
  858. : "m" (*a)
  859. - : "%mm1", "%mm2", "%mm4", "%mm5", "%mm6", "%mm7");
  860. + );
  861. }
  862. asm("emms");
  863. @@ -1047,8 +1047,8 @@
  864. uint64 *b = (uint64 *) _op->B;
  865. gulong n_pixels = _op->n_pixels;
  866. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  867. - asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) : "%mm7");
  868. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  869. + asm volatile ("movq %0,%%mm7" : : "m" (*rgba8_w128_64) );
  870. asm volatile ("pxor %mm6, %mm6");
  871. for (; n_pixels >= 2; n_pixels -= 2)
  872. @@ -1100,7 +1100,7 @@
  873. "\tmovq %%mm1,%0\n"
  874. : "=m" (*d)
  875. : "m" (*a), "m" (*b)
  876. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  877. + );
  878. a++;
  879. b++;
  880. d++;
  881. @@ -1155,7 +1155,7 @@
  882. "\tmovd %%mm1,%0\n"
  883. : "=m" (*d)
  884. : "m" (*a), "m" (*b)
  885. - : "%mm1", "%mm2", "%mm3", "%mm4", "%mm5");
  886. + );
  887. }
  888. asm("emms");
  889. @@ -1170,7 +1170,7 @@
  890. uint64 *b = (uint64 *) _op->B;
  891. gulong n_pixels = _op->n_pixels;
  892. - asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) : "%mm0");
  893. + asm volatile ("movq %0,%%mm0" : : "m" (*rgba8_alpha_mask_64) );
  894. for (; n_pixels >= 2; n_pixels -= 2)
  895. {
  896. @@ -1186,7 +1186,7 @@
  897. "\tmovq %%mm1,%0\n"
  898. : "=m" (*d)
  899. : "m" (*a), "m" (*b)
  900. - : "%mm1", "%mm2", "%mm3", "%mm4");
  901. + );
  902. a++;
  903. b++;
  904. d++;
  905. @@ -1206,7 +1206,7 @@
  906. "\tmovd %%mm1,%0\n"
  907. : "=m" (*d)
  908. : "m" (*a), "m" (*b)
  909. - : "%mm1", "%mm2", "%mm3", "%mm4");
  910. + );
  911. }
  912. asm("emms");
  913. @@ -1227,7 +1227,7 @@
  914. "\tmovq %%mm2,%1\n"
  915. : "+m" (*a), "+m" (*b)
  916. :
  917. - : "%mm1", "%mm2", "%mm3", "%mm4");
  918. + );
  919. a++;
  920. b++;
  921. }
  922. @@ -1240,7 +1240,7 @@
  923. "\tmovd %%mm2,%1\n"
  924. : "+m" (*a), "+m" (*b)
  925. : /* empty */
  926. - : "%mm1", "%mm2", "%mm3", "%mm4");
  927. + );
  928. }
  929. asm("emms");
  930. @@ -1390,7 +1390,7 @@
  931. "\tmovq %%mm7,(%2); addl $8,%2\n"
  932. : "+r" (op.A), "+r" (op.B), "+r" (op.D)
  933. : "m" (*va8_b255), "m" (*va8_w1), "m" (*va8_w255), "m" (*va8_alpha_mask)
  934. - : "%mm1", "%mm2", "%mm3", "%mm4");
  935. + );
  936. }
  937. if (op.n_pixels)
  938. @@ -1441,7 +1441,7 @@
  939. "\tmovd %%mm7,(%2)\n"
  940. : /* empty */
  941. : "r" (op.A), "r" (op.B), "r" (op.D), "m" (*va8_b255), "m" (*va8_w1), "m" (*va8_w255), "m" (*va8_alpha_mask)
  942. - : "%mm0", "%mm1", "%mm2", "%mm3", "%mm4", "%mm5", "%mm6", "%mm7");
  943. + );
  944. }
  945. asm("emms");