mirror of
https://github.com/emmansun/gmsm.git
synced 2025-04-26 12:16:20 +08:00
internal/sm2ec: fix ppc64le
This commit is contained in:
parent
c198fa8abc
commit
95f78a8497
@ -621,8 +621,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
@ -662,8 +662,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
@ -703,8 +703,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
@ -744,8 +744,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
@ -785,8 +785,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
@ -826,8 +826,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
@ -867,8 +867,8 @@ TEXT sm2p256OrdMulInternal<>(SB), NOSPLIT, $0
|
|||||||
// VMALF X1, YDIG, T1, ADD2
|
// VMALF X1, YDIG, T1, ADD2
|
||||||
// VMALHF X0, YDIG, T0, ADD1H
|
// VMALHF X0, YDIG, T0, ADD1H
|
||||||
// VMALHF X1, YDIG, T1, ADD2H
|
// VMALHF X1, YDIG, T1, ADD2H
|
||||||
VMULT_ADD(X0, YDIG, T0, ADD1, ADD1H)
|
VMULT_ADD(X0, YDIG, T0, ONE, ADD1, ADD1H)
|
||||||
VMULT_ADD(X1, YDIG, T1, ADD2, ADD2H)
|
VMULT_ADD(X1, YDIG, T1, ONE, ADD2, ADD2H)
|
||||||
|
|
||||||
// VMLF ADD1, K0, MK0
|
// VMLF ADD1, K0, MK0
|
||||||
// VREPF $3, MK0, MK0
|
// VREPF $3, MK0, MK0
|
||||||
|
Loading…
x
Reference in New Issue
Block a user