diff --git a/internal/sm2ec/p256_asm_ppc64le.s b/internal/sm2ec/p256_asm_ppc64le.s index ae3d54b..cc9866b 100644 --- a/internal/sm2ec/p256_asm_ppc64le.s +++ b/internal/sm2ec/p256_asm_ppc64le.s @@ -621,8 +621,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -662,8 +662,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -703,8 +703,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -744,8 +744,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -785,8 +785,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -826,8 +826,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -867,8 +867,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0