From 95f78a849762da28f3a834a5c29b5720ae0a7cd8 Mon Sep 17 00:00:00 2001 From: Sun Yimin Date: Thu, 29 Aug 2024 10:06:10 +0800 Subject: [PATCH] internal/sm2ec: fix ppc64le --- internal/sm2ec/p256_asm_ppc64le.s | 28 ++++++++++++++-------------- 1 file changed, 14 insertions(+), 14 deletions(-) diff --git a/internal/sm2ec/p256_asm_ppc64le.s b/internal/sm2ec/p256_asm_ppc64le.s index ae3d54b..cc9866b 100644 --- a/internal/sm2ec/p256_asm_ppc64le.s +++ b/internal/sm2ec/p256_asm_ppc64le.s @@ -621,8 +621,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -662,8 +662,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -703,8 +703,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -744,8 +744,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -785,8 +785,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -826,8 +826,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0 @@ -867,8 +867,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0 // VMALF X1, YDIG, T1, ADD2 // VMALHF X0, YDIG, T0, ADD1H // VMALHF X1, YDIG, T1, ADD2H - VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H) - VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H) + VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H) + VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H) // VMLF ADD1, K0, MK0 // VREPF $3, MK0, MK0