diff --git a/internal/sm2ec/p256_asm_ppc64le.s b/internal/sm2ec/p256_asm_ppc64le.s index 7817103..fc9c54e 100644 --- a/internal/sm2ec/p256_asm_ppc64le.s +++ b/internal/sm2ec/p256_asm_ppc64le.s @@ -556,8 +556,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSPLTISB $0, T2 // VZERO T2 @@ -635,8 +635,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 // VSLDB VSLDOI $12, T2, RED2, RED2 // VSLDB @@ -676,8 +676,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 // VSLDB VSLDOI $12, T2, RED2, RED2 // VSLDB @@ -717,8 +717,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 VSLDOI $12, T2, RED2, RED2 @@ -758,8 +758,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 VSLDOI $12, T2, RED2, RED2 @@ -799,8 +799,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 VSLDOI $12, T2, RED2, RED2 @@ -840,8 +840,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 VSLDOI $12, T2, RED2, RED2 @@ -881,8 +881,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALHF M0, MK0, ADD1, RED1H // VMALF M1, MK0, ADD2, RED2 // VMALHF M1, MK0, ADD2, RED2H - VMULT_ADD(M0, MK0, ADD1, ONE, ADD1, RED1H) - VMULT_ADD(M1, MK0, ADD2, ONE, ADD2, RED2H) + VMULT_ADD(M0, MK0, ADD1, ONE, RED1, RED1H) + VMULT_ADD(M1, MK0, ADD2, ONE, RED2, RED2H) VSLDOI $12, RED2, RED1, RED1 VSLDOI $12, T2, RED2, RED2