xref: /freebsd/contrib/bearssl/src/ec/ec_c25519_m62.c (revision 0957b409)
1*0957b409SSimon J. Gerraty /*
2*0957b409SSimon J. Gerraty  * Copyright (c) 2018 Thomas Pornin <pornin@bolet.org>
3*0957b409SSimon J. Gerraty  *
4*0957b409SSimon J. Gerraty  * Permission is hereby granted, free of charge, to any person obtaining
5*0957b409SSimon J. Gerraty  * a copy of this software and associated documentation files (the
6*0957b409SSimon J. Gerraty  * "Software"), to deal in the Software without restriction, including
7*0957b409SSimon J. Gerraty  * without limitation the rights to use, copy, modify, merge, publish,
8*0957b409SSimon J. Gerraty  * distribute, sublicense, and/or sell copies of the Software, and to
9*0957b409SSimon J. Gerraty  * permit persons to whom the Software is furnished to do so, subject to
10*0957b409SSimon J. Gerraty  * the following conditions:
11*0957b409SSimon J. Gerraty  *
12*0957b409SSimon J. Gerraty  * The above copyright notice and this permission notice shall be
13*0957b409SSimon J. Gerraty  * included in all copies or substantial portions of the Software.
14*0957b409SSimon J. Gerraty  *
15*0957b409SSimon J. Gerraty  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
16*0957b409SSimon J. Gerraty  * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
17*0957b409SSimon J. Gerraty  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
18*0957b409SSimon J. Gerraty  * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
19*0957b409SSimon J. Gerraty  * BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
20*0957b409SSimon J. Gerraty  * ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
21*0957b409SSimon J. Gerraty  * CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
22*0957b409SSimon J. Gerraty  * SOFTWARE.
23*0957b409SSimon J. Gerraty  */
24*0957b409SSimon J. Gerraty 
25*0957b409SSimon J. Gerraty #include "inner.h"
26*0957b409SSimon J. Gerraty 
27*0957b409SSimon J. Gerraty #if BR_INT128 || BR_UMUL128
28*0957b409SSimon J. Gerraty 
29*0957b409SSimon J. Gerraty #if BR_UMUL128
30*0957b409SSimon J. Gerraty #include <intrin.h>
31*0957b409SSimon J. Gerraty #endif
32*0957b409SSimon J. Gerraty 
33*0957b409SSimon J. Gerraty static const unsigned char GEN[] = {
34*0957b409SSimon J. Gerraty 	0x09, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00,
35*0957b409SSimon J. Gerraty 	0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00,
36*0957b409SSimon J. Gerraty 	0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00,
37*0957b409SSimon J. Gerraty 	0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00
38*0957b409SSimon J. Gerraty };
39*0957b409SSimon J. Gerraty 
40*0957b409SSimon J. Gerraty static const unsigned char ORDER[] = {
41*0957b409SSimon J. Gerraty 	0x7F, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF,
42*0957b409SSimon J. Gerraty 	0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF,
43*0957b409SSimon J. Gerraty 	0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF,
44*0957b409SSimon J. Gerraty 	0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF, 0xFF
45*0957b409SSimon J. Gerraty };
46*0957b409SSimon J. Gerraty 
47*0957b409SSimon J. Gerraty static const unsigned char *
api_generator(int curve,size_t * len)48*0957b409SSimon J. Gerraty api_generator(int curve, size_t *len)
49*0957b409SSimon J. Gerraty {
50*0957b409SSimon J. Gerraty 	(void)curve;
51*0957b409SSimon J. Gerraty 	*len = 32;
52*0957b409SSimon J. Gerraty 	return GEN;
53*0957b409SSimon J. Gerraty }
54*0957b409SSimon J. Gerraty 
55*0957b409SSimon J. Gerraty static const unsigned char *
api_order(int curve,size_t * len)56*0957b409SSimon J. Gerraty api_order(int curve, size_t *len)
57*0957b409SSimon J. Gerraty {
58*0957b409SSimon J. Gerraty 	(void)curve;
59*0957b409SSimon J. Gerraty 	*len = 32;
60*0957b409SSimon J. Gerraty 	return ORDER;
61*0957b409SSimon J. Gerraty }
62*0957b409SSimon J. Gerraty 
63*0957b409SSimon J. Gerraty static size_t
api_xoff(int curve,size_t * len)64*0957b409SSimon J. Gerraty api_xoff(int curve, size_t *len)
65*0957b409SSimon J. Gerraty {
66*0957b409SSimon J. Gerraty 	(void)curve;
67*0957b409SSimon J. Gerraty 	*len = 32;
68*0957b409SSimon J. Gerraty 	return 0;
69*0957b409SSimon J. Gerraty }
70*0957b409SSimon J. Gerraty 
71*0957b409SSimon J. Gerraty /*
72*0957b409SSimon J. Gerraty  * A field element is encoded as five 64-bit integers, in basis 2^51.
73*0957b409SSimon J. Gerraty  * Limbs may be occasionally larger than 2^51, to save on carry
74*0957b409SSimon J. Gerraty  * propagation costs.
75*0957b409SSimon J. Gerraty  */
76*0957b409SSimon J. Gerraty 
77*0957b409SSimon J. Gerraty #define MASK51   (((uint64_t)1 << 51) - (uint64_t)1)
78*0957b409SSimon J. Gerraty 
79*0957b409SSimon J. Gerraty /*
80*0957b409SSimon J. Gerraty  * Swap two field elements, conditionally on a flag.
81*0957b409SSimon J. Gerraty  */
82*0957b409SSimon J. Gerraty static inline void
f255_cswap(uint64_t * a,uint64_t * b,uint32_t ctl)83*0957b409SSimon J. Gerraty f255_cswap(uint64_t *a, uint64_t *b, uint32_t ctl)
84*0957b409SSimon J. Gerraty {
85*0957b409SSimon J. Gerraty 	uint64_t m, w;
86*0957b409SSimon J. Gerraty 
87*0957b409SSimon J. Gerraty 	m = -(uint64_t)ctl;
88*0957b409SSimon J. Gerraty 	w = m & (a[0] ^ b[0]); a[0] ^= w; b[0] ^= w;
89*0957b409SSimon J. Gerraty 	w = m & (a[1] ^ b[1]); a[1] ^= w; b[1] ^= w;
90*0957b409SSimon J. Gerraty 	w = m & (a[2] ^ b[2]); a[2] ^= w; b[2] ^= w;
91*0957b409SSimon J. Gerraty 	w = m & (a[3] ^ b[3]); a[3] ^= w; b[3] ^= w;
92*0957b409SSimon J. Gerraty 	w = m & (a[4] ^ b[4]); a[4] ^= w; b[4] ^= w;
93*0957b409SSimon J. Gerraty }
94*0957b409SSimon J. Gerraty 
95*0957b409SSimon J. Gerraty /*
96*0957b409SSimon J. Gerraty  * Addition with no carry propagation. Limbs double in size.
97*0957b409SSimon J. Gerraty  */
98*0957b409SSimon J. Gerraty static inline void
f255_add(uint64_t * d,const uint64_t * a,const uint64_t * b)99*0957b409SSimon J. Gerraty f255_add(uint64_t *d, const uint64_t *a, const uint64_t *b)
100*0957b409SSimon J. Gerraty {
101*0957b409SSimon J. Gerraty 	d[0] = a[0] + b[0];
102*0957b409SSimon J. Gerraty 	d[1] = a[1] + b[1];
103*0957b409SSimon J. Gerraty 	d[2] = a[2] + b[2];
104*0957b409SSimon J. Gerraty 	d[3] = a[3] + b[3];
105*0957b409SSimon J. Gerraty 	d[4] = a[4] + b[4];
106*0957b409SSimon J. Gerraty }
107*0957b409SSimon J. Gerraty 
108*0957b409SSimon J. Gerraty /*
109*0957b409SSimon J. Gerraty  * Subtraction.
110*0957b409SSimon J. Gerraty  * On input, limbs must fit on 60 bits each. On output, result is
111*0957b409SSimon J. Gerraty  * partially reduced, with max value 2^255+19456; moreover, all
112*0957b409SSimon J. Gerraty  * limbs will fit on 51 bits, except the low limb, which may have
113*0957b409SSimon J. Gerraty  * value up to 2^51+19455.
114*0957b409SSimon J. Gerraty  */
115*0957b409SSimon J. Gerraty static inline void
f255_sub(uint64_t * d,const uint64_t * a,const uint64_t * b)116*0957b409SSimon J. Gerraty f255_sub(uint64_t *d, const uint64_t *a, const uint64_t *b)
117*0957b409SSimon J. Gerraty {
118*0957b409SSimon J. Gerraty 	uint64_t cc, w;
119*0957b409SSimon J. Gerraty 
120*0957b409SSimon J. Gerraty 	/*
121*0957b409SSimon J. Gerraty 	 * We compute d = (2^255-19)*1024 + a - b. Since the limbs
122*0957b409SSimon J. Gerraty 	 * fit on 60 bits, the maximum value of operands are slightly
123*0957b409SSimon J. Gerraty 	 * more than 2^264, but much less than 2^265-19456. This
124*0957b409SSimon J. Gerraty 	 * ensures that the result is positive.
125*0957b409SSimon J. Gerraty 	 */
126*0957b409SSimon J. Gerraty 
127*0957b409SSimon J. Gerraty 	/*
128*0957b409SSimon J. Gerraty 	 * Initial carry is 19456, since we add 2^265-19456. Each
129*0957b409SSimon J. Gerraty 	 * individual subtraction may yield a carry up to 513.
130*0957b409SSimon J. Gerraty 	 */
131*0957b409SSimon J. Gerraty 	w = a[0] - b[0] - 19456;
132*0957b409SSimon J. Gerraty 	d[0] = w & MASK51;
133*0957b409SSimon J. Gerraty 	cc = -(w >> 51) & 0x3FF;
134*0957b409SSimon J. Gerraty 	w = a[1] - b[1] - cc;
135*0957b409SSimon J. Gerraty 	d[1] = w & MASK51;
136*0957b409SSimon J. Gerraty 	cc = -(w >> 51) & 0x3FF;
137*0957b409SSimon J. Gerraty 	w = a[2] - b[2] - cc;
138*0957b409SSimon J. Gerraty 	d[2] = w & MASK51;
139*0957b409SSimon J. Gerraty 	cc = -(w >> 51) & 0x3FF;
140*0957b409SSimon J. Gerraty 	w = a[3] - b[3] - cc;
141*0957b409SSimon J. Gerraty 	d[3] = w & MASK51;
142*0957b409SSimon J. Gerraty 	cc = -(w >> 51) & 0x3FF;
143*0957b409SSimon J. Gerraty 	d[4] = ((uint64_t)1 << 61) + a[4] - b[4] - cc;
144*0957b409SSimon J. Gerraty 
145*0957b409SSimon J. Gerraty 	/*
146*0957b409SSimon J. Gerraty 	 * Partial reduction. The intermediate result may be up to
147*0957b409SSimon J. Gerraty 	 * slightly above 2^265, but less than 2^265+2^255. When we
148*0957b409SSimon J. Gerraty 	 * truncate to 255 bits, the upper bits will be at most 1024.
149*0957b409SSimon J. Gerraty 	 */
150*0957b409SSimon J. Gerraty 	d[0] += 19 * (d[4] >> 51);
151*0957b409SSimon J. Gerraty 	d[4] &= MASK51;
152*0957b409SSimon J. Gerraty }
153*0957b409SSimon J. Gerraty 
154*0957b409SSimon J. Gerraty /*
155*0957b409SSimon J. Gerraty  * UMUL51(hi, lo, x, y) computes:
156*0957b409SSimon J. Gerraty  *
157*0957b409SSimon J. Gerraty  *   hi = floor((x * y) / (2^51))
158*0957b409SSimon J. Gerraty  *   lo = x * y mod 2^51
159*0957b409SSimon J. Gerraty  *
160*0957b409SSimon J. Gerraty  * Note that lo < 2^51, but "hi" may be larger, if the input operands are
161*0957b409SSimon J. Gerraty  * larger.
162*0957b409SSimon J. Gerraty  */
163*0957b409SSimon J. Gerraty #if BR_INT128
164*0957b409SSimon J. Gerraty 
165*0957b409SSimon J. Gerraty #define UMUL51(hi, lo, x, y)   do { \
166*0957b409SSimon J. Gerraty 		unsigned __int128 umul_tmp; \
167*0957b409SSimon J. Gerraty 		umul_tmp = (unsigned __int128)(x) * (unsigned __int128)(y); \
168*0957b409SSimon J. Gerraty 		(hi) = (uint64_t)(umul_tmp >> 51); \
169*0957b409SSimon J. Gerraty 		(lo) = (uint64_t)umul_tmp & MASK51; \
170*0957b409SSimon J. Gerraty 	} while (0)
171*0957b409SSimon J. Gerraty 
172*0957b409SSimon J. Gerraty #elif BR_UMUL128
173*0957b409SSimon J. Gerraty 
174*0957b409SSimon J. Gerraty #define UMUL51(hi, lo, x, y)   do { \
175*0957b409SSimon J. Gerraty 		uint64_t umul_hi, umul_lo; \
176*0957b409SSimon J. Gerraty 		umul_lo = _umul128((x), (y), &umul_hi); \
177*0957b409SSimon J. Gerraty 		(hi) = (umul_hi << 13) | (umul_lo >> 51); \
178*0957b409SSimon J. Gerraty 		(lo) = umul_lo & MASK51; \
179*0957b409SSimon J. Gerraty 	} while (0)
180*0957b409SSimon J. Gerraty 
181*0957b409SSimon J. Gerraty #endif
182*0957b409SSimon J. Gerraty 
183*0957b409SSimon J. Gerraty /*
184*0957b409SSimon J. Gerraty  * Multiplication.
185*0957b409SSimon J. Gerraty  * On input, limbs must fit on 54 bits each.
186*0957b409SSimon J. Gerraty  * On output, limb 0 is at most 2^51 + 155647, and other limbs fit
187*0957b409SSimon J. Gerraty  * on 51 bits each.
188*0957b409SSimon J. Gerraty  */
189*0957b409SSimon J. Gerraty static inline void
f255_mul(uint64_t * d,uint64_t * a,uint64_t * b)190*0957b409SSimon J. Gerraty f255_mul(uint64_t *d, uint64_t *a, uint64_t *b)
191*0957b409SSimon J. Gerraty {
192*0957b409SSimon J. Gerraty 	uint64_t t[10], hi, lo, w, cc;
193*0957b409SSimon J. Gerraty 
194*0957b409SSimon J. Gerraty 	/*
195*0957b409SSimon J. Gerraty 	 * Perform cross products, accumulating values without carry
196*0957b409SSimon J. Gerraty 	 * propagation.
197*0957b409SSimon J. Gerraty 	 *
198*0957b409SSimon J. Gerraty 	 * Since input limbs fit on 54 bits each, each individual
199*0957b409SSimon J. Gerraty 	 * UMUL51 will produce a "hi" of less than 2^57. The maximum
200*0957b409SSimon J. Gerraty 	 * sum will be at most 5*(2^57-1) + 4*(2^51-1) (for t[5]),
201*0957b409SSimon J. Gerraty 	 * i.e. less than 324*2^51.
202*0957b409SSimon J. Gerraty 	 */
203*0957b409SSimon J. Gerraty 
204*0957b409SSimon J. Gerraty 	UMUL51(t[1], t[0], a[0], b[0]);
205*0957b409SSimon J. Gerraty 
206*0957b409SSimon J. Gerraty 	UMUL51(t[2], lo, a[1], b[0]); t[1] += lo;
207*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[0], b[1]); t[1] += lo; t[2] += hi;
208*0957b409SSimon J. Gerraty 
209*0957b409SSimon J. Gerraty 	UMUL51(t[3], lo, a[2], b[0]); t[2] += lo;
210*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[1], b[1]); t[2] += lo; t[3] += hi;
211*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[0], b[2]); t[2] += lo; t[3] += hi;
212*0957b409SSimon J. Gerraty 
213*0957b409SSimon J. Gerraty 	UMUL51(t[4], lo, a[3], b[0]); t[3] += lo;
214*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[2], b[1]); t[3] += lo; t[4] += hi;
215*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[1], b[2]); t[3] += lo; t[4] += hi;
216*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[0], b[3]); t[3] += lo; t[4] += hi;
217*0957b409SSimon J. Gerraty 
218*0957b409SSimon J. Gerraty 	UMUL51(t[5], lo, a[4], b[0]); t[4] += lo;
219*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[3], b[1]); t[4] += lo; t[5] += hi;
220*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[2], b[2]); t[4] += lo; t[5] += hi;
221*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[1], b[3]); t[4] += lo; t[5] += hi;
222*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[0], b[4]); t[4] += lo; t[5] += hi;
223*0957b409SSimon J. Gerraty 
224*0957b409SSimon J. Gerraty 	UMUL51(t[6], lo, a[4], b[1]); t[5] += lo;
225*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[3], b[2]); t[5] += lo; t[6] += hi;
226*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[2], b[3]); t[5] += lo; t[6] += hi;
227*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[1], b[4]); t[5] += lo; t[6] += hi;
228*0957b409SSimon J. Gerraty 
229*0957b409SSimon J. Gerraty 	UMUL51(t[7], lo, a[4], b[2]); t[6] += lo;
230*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[3], b[3]); t[6] += lo; t[7] += hi;
231*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[2], b[4]); t[6] += lo; t[7] += hi;
232*0957b409SSimon J. Gerraty 
233*0957b409SSimon J. Gerraty 	UMUL51(t[8], lo, a[4], b[3]); t[7] += lo;
234*0957b409SSimon J. Gerraty 	UMUL51(hi, lo, a[3], b[4]); t[7] += lo; t[8] += hi;
235*0957b409SSimon J. Gerraty 
236*0957b409SSimon J. Gerraty 	UMUL51(t[9], lo, a[4], b[4]); t[8] += lo;
237*0957b409SSimon J. Gerraty 
238*0957b409SSimon J. Gerraty 	/*
239*0957b409SSimon J. Gerraty 	 * The upper words t[5]..t[9] are folded back into the lower
240*0957b409SSimon J. Gerraty 	 * words, using the rule that 2^255 = 19 in the field.
241*0957b409SSimon J. Gerraty 	 *
242*0957b409SSimon J. Gerraty 	 * Since each t[i] is less than 324*2^51, the additions below
243*0957b409SSimon J. Gerraty 	 * will yield less than 6480*2^51 in each limb; this fits in
244*0957b409SSimon J. Gerraty 	 * 64 bits (6480*2^51 < 8192*2^51 = 2^64), hence there is
245*0957b409SSimon J. Gerraty 	 * no overflow.
246*0957b409SSimon J. Gerraty 	 */
247*0957b409SSimon J. Gerraty 	t[0] += 19 * t[5];
248*0957b409SSimon J. Gerraty 	t[1] += 19 * t[6];
249*0957b409SSimon J. Gerraty 	t[2] += 19 * t[7];
250*0957b409SSimon J. Gerraty 	t[3] += 19 * t[8];
251*0957b409SSimon J. Gerraty 	t[4] += 19 * t[9];
252*0957b409SSimon J. Gerraty 
253*0957b409SSimon J. Gerraty 	/*
254*0957b409SSimon J. Gerraty 	 * Propagate carries.
255*0957b409SSimon J. Gerraty 	 */
256*0957b409SSimon J. Gerraty 	w = t[0];
257*0957b409SSimon J. Gerraty 	d[0] = w & MASK51;
258*0957b409SSimon J. Gerraty 	cc = w >> 51;
259*0957b409SSimon J. Gerraty 	w = t[1] + cc;
260*0957b409SSimon J. Gerraty 	d[1] = w & MASK51;
261*0957b409SSimon J. Gerraty 	cc = w >> 51;
262*0957b409SSimon J. Gerraty 	w = t[2] + cc;
263*0957b409SSimon J. Gerraty 	d[2] = w & MASK51;
264*0957b409SSimon J. Gerraty 	cc = w >> 51;
265*0957b409SSimon J. Gerraty 	w = t[3] + cc;
266*0957b409SSimon J. Gerraty 	d[3] = w & MASK51;
267*0957b409SSimon J. Gerraty 	cc = w >> 51;
268*0957b409SSimon J. Gerraty 	w = t[4] + cc;
269*0957b409SSimon J. Gerraty 	d[4] = w & MASK51;
270*0957b409SSimon J. Gerraty 	cc = w >> 51;
271*0957b409SSimon J. Gerraty 
272*0957b409SSimon J. Gerraty 	/*
273*0957b409SSimon J. Gerraty 	 * Since the limbs were 64-bit values, the top carry is at
274*0957b409SSimon J. Gerraty 	 * most 8192 (in practice, that cannot be reached). We simply
275*0957b409SSimon J. Gerraty 	 * performed a partial reduction.
276*0957b409SSimon J. Gerraty 	 */
277*0957b409SSimon J. Gerraty 	d[0] += 19 * cc;
278*0957b409SSimon J. Gerraty }
279*0957b409SSimon J. Gerraty 
280*0957b409SSimon J. Gerraty /*
281*0957b409SSimon J. Gerraty  * Multiplication by A24 = 121665.
282*0957b409SSimon J. Gerraty  * Input must have limbs of 60 bits at most.
283*0957b409SSimon J. Gerraty  */
284*0957b409SSimon J. Gerraty static inline void
f255_mul_a24(uint64_t * d,const uint64_t * a)285*0957b409SSimon J. Gerraty f255_mul_a24(uint64_t *d, const uint64_t *a)
286*0957b409SSimon J. Gerraty {
287*0957b409SSimon J. Gerraty 	uint64_t t[5], cc, w;
288*0957b409SSimon J. Gerraty 
289*0957b409SSimon J. Gerraty 	/*
290*0957b409SSimon J. Gerraty 	 * 121665 = 15 * 8111. We first multiply by 15, with carry
291*0957b409SSimon J. Gerraty 	 * propagation and partial reduction.
292*0957b409SSimon J. Gerraty 	 */
293*0957b409SSimon J. Gerraty 	w = a[0] * 15;
294*0957b409SSimon J. Gerraty 	t[0] = w & MASK51;
295*0957b409SSimon J. Gerraty 	cc = w >> 51;
296*0957b409SSimon J. Gerraty 	w = a[1] * 15 + cc;
297*0957b409SSimon J. Gerraty 	t[1] = w & MASK51;
298*0957b409SSimon J. Gerraty 	cc = w >> 51;
299*0957b409SSimon J. Gerraty 	w = a[2] * 15 + cc;
300*0957b409SSimon J. Gerraty 	t[2] = w & MASK51;
301*0957b409SSimon J. Gerraty 	cc = w >> 51;
302*0957b409SSimon J. Gerraty 	w = a[3] * 15 + cc;
303*0957b409SSimon J. Gerraty 	t[3] = w & MASK51;
304*0957b409SSimon J. Gerraty 	cc = w >> 51;
305*0957b409SSimon J. Gerraty 	w = a[4] * 15 + cc;
306*0957b409SSimon J. Gerraty 	t[4] = w & MASK51;
307*0957b409SSimon J. Gerraty 	t[0] += 19 * (w >> 51);
308*0957b409SSimon J. Gerraty 
309*0957b409SSimon J. Gerraty 	/*
310*0957b409SSimon J. Gerraty 	 * Then multiplication by 8111. At that point, we known that
311*0957b409SSimon J. Gerraty 	 * t[0] is less than 2^51 + 19*8192, and other limbs are less
312*0957b409SSimon J. Gerraty 	 * than 2^51; thus, there will be no overflow.
313*0957b409SSimon J. Gerraty 	 */
314*0957b409SSimon J. Gerraty 	w = t[0] * 8111;
315*0957b409SSimon J. Gerraty 	d[0] = w & MASK51;
316*0957b409SSimon J. Gerraty 	cc = w >> 51;
317*0957b409SSimon J. Gerraty 	w = t[1] * 8111 + cc;
318*0957b409SSimon J. Gerraty 	d[1] = w & MASK51;
319*0957b409SSimon J. Gerraty 	cc = w >> 51;
320*0957b409SSimon J. Gerraty 	w = t[2] * 8111 + cc;
321*0957b409SSimon J. Gerraty 	d[2] = w & MASK51;
322*0957b409SSimon J. Gerraty 	cc = w >> 51;
323*0957b409SSimon J. Gerraty 	w = t[3] * 8111 + cc;
324*0957b409SSimon J. Gerraty 	d[3] = w & MASK51;
325*0957b409SSimon J. Gerraty 	cc = w >> 51;
326*0957b409SSimon J. Gerraty 	w = t[4] * 8111 + cc;
327*0957b409SSimon J. Gerraty 	d[4] = w & MASK51;
328*0957b409SSimon J. Gerraty 	d[0] += 19 * (w >> 51);
329*0957b409SSimon J. Gerraty }
330*0957b409SSimon J. Gerraty 
331*0957b409SSimon J. Gerraty /*
332*0957b409SSimon J. Gerraty  * Finalize reduction.
333*0957b409SSimon J. Gerraty  * On input, limbs must fit on 51 bits, except possibly the low limb,
334*0957b409SSimon J. Gerraty  * which may be slightly above 2^51.
335*0957b409SSimon J. Gerraty  */
336*0957b409SSimon J. Gerraty static inline void
f255_final_reduce(uint64_t * a)337*0957b409SSimon J. Gerraty f255_final_reduce(uint64_t *a)
338*0957b409SSimon J. Gerraty {
339*0957b409SSimon J. Gerraty 	uint64_t t[5], cc, w;
340*0957b409SSimon J. Gerraty 
341*0957b409SSimon J. Gerraty 	/*
342*0957b409SSimon J. Gerraty 	 * We add 19. If the result (in t[]) is below 2^255, then a[]
343*0957b409SSimon J. Gerraty 	 * is already less than 2^255-19, thus already reduced.
344*0957b409SSimon J. Gerraty 	 * Otherwise, we subtract 2^255 from t[], in which case we
345*0957b409SSimon J. Gerraty 	 * have t = a - (2^255-19), and that's our result.
346*0957b409SSimon J. Gerraty 	 */
347*0957b409SSimon J. Gerraty 	w = a[0] + 19;
348*0957b409SSimon J. Gerraty 	t[0] = w & MASK51;
349*0957b409SSimon J. Gerraty 	cc = w >> 51;
350*0957b409SSimon J. Gerraty 	w = a[1] + cc;
351*0957b409SSimon J. Gerraty 	t[1] = w & MASK51;
352*0957b409SSimon J. Gerraty 	cc = w >> 51;
353*0957b409SSimon J. Gerraty 	w = a[2] + cc;
354*0957b409SSimon J. Gerraty 	t[2] = w & MASK51;
355*0957b409SSimon J. Gerraty 	cc = w >> 51;
356*0957b409SSimon J. Gerraty 	w = a[3] + cc;
357*0957b409SSimon J. Gerraty 	t[3] = w & MASK51;
358*0957b409SSimon J. Gerraty 	cc = w >> 51;
359*0957b409SSimon J. Gerraty 	w = a[4] + cc;
360*0957b409SSimon J. Gerraty 	t[4] = w & MASK51;
361*0957b409SSimon J. Gerraty 	cc = w >> 51;
362*0957b409SSimon J. Gerraty 
363*0957b409SSimon J. Gerraty 	/*
364*0957b409SSimon J. Gerraty 	 * The bit 255 of t is in cc. If that bit is 0, when a[] must
365*0957b409SSimon J. Gerraty 	 * be unchanged; otherwise, it must be replaced with t[].
366*0957b409SSimon J. Gerraty 	 */
367*0957b409SSimon J. Gerraty 	cc = -cc;
368*0957b409SSimon J. Gerraty 	a[0] ^= cc & (a[0] ^ t[0]);
369*0957b409SSimon J. Gerraty 	a[1] ^= cc & (a[1] ^ t[1]);
370*0957b409SSimon J. Gerraty 	a[2] ^= cc & (a[2] ^ t[2]);
371*0957b409SSimon J. Gerraty 	a[3] ^= cc & (a[3] ^ t[3]);
372*0957b409SSimon J. Gerraty 	a[4] ^= cc & (a[4] ^ t[4]);
373*0957b409SSimon J. Gerraty }
374*0957b409SSimon J. Gerraty 
375*0957b409SSimon J. Gerraty static uint32_t
api_mul(unsigned char * G,size_t Glen,const unsigned char * kb,size_t kblen,int curve)376*0957b409SSimon J. Gerraty api_mul(unsigned char *G, size_t Glen,
377*0957b409SSimon J. Gerraty 	const unsigned char *kb, size_t kblen, int curve)
378*0957b409SSimon J. Gerraty {
379*0957b409SSimon J. Gerraty 	unsigned char k[32];
380*0957b409SSimon J. Gerraty 	uint64_t x1[5], x2[5], z2[5], x3[5], z3[5];
381*0957b409SSimon J. Gerraty 	uint32_t swap;
382*0957b409SSimon J. Gerraty 	int i;
383*0957b409SSimon J. Gerraty 
384*0957b409SSimon J. Gerraty 	(void)curve;
385*0957b409SSimon J. Gerraty 
386*0957b409SSimon J. Gerraty 	/*
387*0957b409SSimon J. Gerraty 	 * Points are encoded over exactly 32 bytes. Multipliers must fit
388*0957b409SSimon J. Gerraty 	 * in 32 bytes as well.
389*0957b409SSimon J. Gerraty 	 */
390*0957b409SSimon J. Gerraty 	if (Glen != 32 || kblen > 32) {
391*0957b409SSimon J. Gerraty 		return 0;
392*0957b409SSimon J. Gerraty 	}
393*0957b409SSimon J. Gerraty 
394*0957b409SSimon J. Gerraty 	/*
395*0957b409SSimon J. Gerraty 	 * RFC 7748 mandates that the high bit of the last point byte must
396*0957b409SSimon J. Gerraty 	 * be ignored/cleared; the "& MASK51" in the initialization for
397*0957b409SSimon J. Gerraty 	 * x1[4] clears that bit.
398*0957b409SSimon J. Gerraty 	 */
399*0957b409SSimon J. Gerraty 	x1[0] = br_dec64le(&G[0]) & MASK51;
400*0957b409SSimon J. Gerraty 	x1[1] = (br_dec64le(&G[6]) >> 3) & MASK51;
401*0957b409SSimon J. Gerraty 	x1[2] = (br_dec64le(&G[12]) >> 6) & MASK51;
402*0957b409SSimon J. Gerraty 	x1[3] = (br_dec64le(&G[19]) >> 1) & MASK51;
403*0957b409SSimon J. Gerraty 	x1[4] = (br_dec64le(&G[24]) >> 12) & MASK51;
404*0957b409SSimon J. Gerraty 
405*0957b409SSimon J. Gerraty 	/*
406*0957b409SSimon J. Gerraty 	 * We can use memset() to clear values, because exact-width types
407*0957b409SSimon J. Gerraty 	 * like uint64_t are guaranteed to have no padding bits or
408*0957b409SSimon J. Gerraty 	 * trap representations.
409*0957b409SSimon J. Gerraty 	 */
410*0957b409SSimon J. Gerraty 	memset(x2, 0, sizeof x2);
411*0957b409SSimon J. Gerraty 	x2[0] = 1;
412*0957b409SSimon J. Gerraty 	memset(z2, 0, sizeof z2);
413*0957b409SSimon J. Gerraty 	memcpy(x3, x1, sizeof x1);
414*0957b409SSimon J. Gerraty 	memcpy(z3, x2, sizeof x2);
415*0957b409SSimon J. Gerraty 
416*0957b409SSimon J. Gerraty 	/*
417*0957b409SSimon J. Gerraty 	 * The multiplier is provided in big-endian notation, and
418*0957b409SSimon J. Gerraty 	 * possibly shorter than 32 bytes.
419*0957b409SSimon J. Gerraty 	 */
420*0957b409SSimon J. Gerraty 	memset(k, 0, (sizeof k) - kblen);
421*0957b409SSimon J. Gerraty 	memcpy(k + (sizeof k) - kblen, kb, kblen);
422*0957b409SSimon J. Gerraty 	k[31] &= 0xF8;
423*0957b409SSimon J. Gerraty 	k[0] &= 0x7F;
424*0957b409SSimon J. Gerraty 	k[0] |= 0x40;
425*0957b409SSimon J. Gerraty 
426*0957b409SSimon J. Gerraty 	swap = 0;
427*0957b409SSimon J. Gerraty 
428*0957b409SSimon J. Gerraty 	for (i = 254; i >= 0; i --) {
429*0957b409SSimon J. Gerraty 		uint64_t a[5], aa[5], b[5], bb[5], e[5];
430*0957b409SSimon J. Gerraty 		uint64_t c[5], d[5], da[5], cb[5];
431*0957b409SSimon J. Gerraty 		uint32_t kt;
432*0957b409SSimon J. Gerraty 
433*0957b409SSimon J. Gerraty 		kt = (k[31 - (i >> 3)] >> (i & 7)) & 1;
434*0957b409SSimon J. Gerraty 		swap ^= kt;
435*0957b409SSimon J. Gerraty 		f255_cswap(x2, x3, swap);
436*0957b409SSimon J. Gerraty 		f255_cswap(z2, z3, swap);
437*0957b409SSimon J. Gerraty 		swap = kt;
438*0957b409SSimon J. Gerraty 
439*0957b409SSimon J. Gerraty 		/*
440*0957b409SSimon J. Gerraty 		 * At that point, limbs of x_2 and z_2 are assumed to fit
441*0957b409SSimon J. Gerraty 		 * on at most 52 bits each.
442*0957b409SSimon J. Gerraty 		 *
443*0957b409SSimon J. Gerraty 		 * Each f255_add() adds one bit to the maximum range of
444*0957b409SSimon J. Gerraty 		 * the values, but f255_sub() and f255_mul() bring back
445*0957b409SSimon J. Gerraty 		 * the limbs into 52 bits. All f255_add() outputs are
446*0957b409SSimon J. Gerraty 		 * used only as inputs for f255_mul(), which ensures
447*0957b409SSimon J. Gerraty 		 * that limbs remain in the proper range.
448*0957b409SSimon J. Gerraty 		 */
449*0957b409SSimon J. Gerraty 
450*0957b409SSimon J. Gerraty 		/* A = x_2 + z_2   -- limbs fit on 53 bits each */
451*0957b409SSimon J. Gerraty 		f255_add(a, x2, z2);
452*0957b409SSimon J. Gerraty 
453*0957b409SSimon J. Gerraty 		/* AA = A^2 */
454*0957b409SSimon J. Gerraty 		f255_mul(aa, a, a);
455*0957b409SSimon J. Gerraty 
456*0957b409SSimon J. Gerraty 		/* B = x_2 - z_2 */
457*0957b409SSimon J. Gerraty 		f255_sub(b, x2, z2);
458*0957b409SSimon J. Gerraty 
459*0957b409SSimon J. Gerraty 		/* BB = B^2 */
460*0957b409SSimon J. Gerraty 		f255_mul(bb, b, b);
461*0957b409SSimon J. Gerraty 
462*0957b409SSimon J. Gerraty 		/* E = AA - BB */
463*0957b409SSimon J. Gerraty 		f255_sub(e, aa, bb);
464*0957b409SSimon J. Gerraty 
465*0957b409SSimon J. Gerraty 		/* C = x_3 + z_3   -- limbs fit on 53 bits each */
466*0957b409SSimon J. Gerraty 		f255_add(c, x3, z3);
467*0957b409SSimon J. Gerraty 
468*0957b409SSimon J. Gerraty 		/* D = x_3 - z_3 */
469*0957b409SSimon J. Gerraty 		f255_sub(d, x3, z3);
470*0957b409SSimon J. Gerraty 
471*0957b409SSimon J. Gerraty 		/* DA = D * A */
472*0957b409SSimon J. Gerraty 		f255_mul(da, d, a);
473*0957b409SSimon J. Gerraty 
474*0957b409SSimon J. Gerraty 		/* CB = C * B */
475*0957b409SSimon J. Gerraty 		f255_mul(cb, c, b);
476*0957b409SSimon J. Gerraty 
477*0957b409SSimon J. Gerraty 		/* x_3 = (DA + CB)^2 */
478*0957b409SSimon J. Gerraty 		f255_add(x3, da, cb);
479*0957b409SSimon J. Gerraty 		f255_mul(x3, x3, x3);
480*0957b409SSimon J. Gerraty 
481*0957b409SSimon J. Gerraty 		/* z_3 = x_1 * (DA - CB)^2 */
482*0957b409SSimon J. Gerraty 		f255_sub(z3, da, cb);
483*0957b409SSimon J. Gerraty 		f255_mul(z3, z3, z3);
484*0957b409SSimon J. Gerraty 		f255_mul(z3, x1, z3);
485*0957b409SSimon J. Gerraty 
486*0957b409SSimon J. Gerraty 		/* x_2 = AA * BB */
487*0957b409SSimon J. Gerraty 		f255_mul(x2, aa, bb);
488*0957b409SSimon J. Gerraty 
489*0957b409SSimon J. Gerraty 		/* z_2 = E * (AA + a24 * E) */
490*0957b409SSimon J. Gerraty 		f255_mul_a24(z2, e);
491*0957b409SSimon J. Gerraty 		f255_add(z2, aa, z2);
492*0957b409SSimon J. Gerraty 		f255_mul(z2, e, z2);
493*0957b409SSimon J. Gerraty 	}
494*0957b409SSimon J. Gerraty 
495*0957b409SSimon J. Gerraty 	f255_cswap(x2, x3, swap);
496*0957b409SSimon J. Gerraty 	f255_cswap(z2, z3, swap);
497*0957b409SSimon J. Gerraty 
498*0957b409SSimon J. Gerraty 	/*
499*0957b409SSimon J. Gerraty 	 * Compute 1/z2 = z2^(p-2). Since p = 2^255-19, we can mutualize
500*0957b409SSimon J. Gerraty 	 * most non-squarings. We use x1 and x3, now useless, as temporaries.
501*0957b409SSimon J. Gerraty 	 */
502*0957b409SSimon J. Gerraty 	memcpy(x1, z2, sizeof z2);
503*0957b409SSimon J. Gerraty 	for (i = 0; i < 15; i ++) {
504*0957b409SSimon J. Gerraty 		f255_mul(x1, x1, x1);
505*0957b409SSimon J. Gerraty 		f255_mul(x1, x1, z2);
506*0957b409SSimon J. Gerraty 	}
507*0957b409SSimon J. Gerraty 	memcpy(x3, x1, sizeof x1);
508*0957b409SSimon J. Gerraty 	for (i = 0; i < 14; i ++) {
509*0957b409SSimon J. Gerraty 		int j;
510*0957b409SSimon J. Gerraty 
511*0957b409SSimon J. Gerraty 		for (j = 0; j < 16; j ++) {
512*0957b409SSimon J. Gerraty 			f255_mul(x3, x3, x3);
513*0957b409SSimon J. Gerraty 		}
514*0957b409SSimon J. Gerraty 		f255_mul(x3, x3, x1);
515*0957b409SSimon J. Gerraty 	}
516*0957b409SSimon J. Gerraty 	for (i = 14; i >= 0; i --) {
517*0957b409SSimon J. Gerraty 		f255_mul(x3, x3, x3);
518*0957b409SSimon J. Gerraty 		if ((0xFFEB >> i) & 1) {
519*0957b409SSimon J. Gerraty 			f255_mul(x3, z2, x3);
520*0957b409SSimon J. Gerraty 		}
521*0957b409SSimon J. Gerraty 	}
522*0957b409SSimon J. Gerraty 
523*0957b409SSimon J. Gerraty 	/*
524*0957b409SSimon J. Gerraty 	 * Compute x2/z2. We have 1/z2 in x3.
525*0957b409SSimon J. Gerraty 	 */
526*0957b409SSimon J. Gerraty 	f255_mul(x2, x2, x3);
527*0957b409SSimon J. Gerraty 	f255_final_reduce(x2);
528*0957b409SSimon J. Gerraty 
529*0957b409SSimon J. Gerraty 	/*
530*0957b409SSimon J. Gerraty 	 * Encode the final x2 value in little-endian. We first assemble
531*0957b409SSimon J. Gerraty 	 * the limbs into 64-bit values.
532*0957b409SSimon J. Gerraty 	 */
533*0957b409SSimon J. Gerraty 	x2[0] |= x2[1] << 51;
534*0957b409SSimon J. Gerraty 	x2[1] = (x2[1] >> 13) | (x2[2] << 38);
535*0957b409SSimon J. Gerraty 	x2[2] = (x2[2] >> 26) | (x2[3] << 25);
536*0957b409SSimon J. Gerraty 	x2[3] = (x2[3] >> 39) | (x2[4] << 12);
537*0957b409SSimon J. Gerraty 	br_enc64le(G, x2[0]);
538*0957b409SSimon J. Gerraty 	br_enc64le(G + 8, x2[1]);
539*0957b409SSimon J. Gerraty 	br_enc64le(G + 16, x2[2]);
540*0957b409SSimon J. Gerraty 	br_enc64le(G + 24, x2[3]);
541*0957b409SSimon J. Gerraty 	return 1;
542*0957b409SSimon J. Gerraty }
543*0957b409SSimon J. Gerraty 
544*0957b409SSimon J. Gerraty static size_t
api_mulgen(unsigned char * R,const unsigned char * x,size_t xlen,int curve)545*0957b409SSimon J. Gerraty api_mulgen(unsigned char *R,
546*0957b409SSimon J. Gerraty 	const unsigned char *x, size_t xlen, int curve)
547*0957b409SSimon J. Gerraty {
548*0957b409SSimon J. Gerraty 	const unsigned char *G;
549*0957b409SSimon J. Gerraty 	size_t Glen;
550*0957b409SSimon J. Gerraty 
551*0957b409SSimon J. Gerraty 	G = api_generator(curve, &Glen);
552*0957b409SSimon J. Gerraty 	memcpy(R, G, Glen);
553*0957b409SSimon J. Gerraty 	api_mul(R, Glen, x, xlen, curve);
554*0957b409SSimon J. Gerraty 	return Glen;
555*0957b409SSimon J. Gerraty }
556*0957b409SSimon J. Gerraty 
557*0957b409SSimon J. Gerraty static uint32_t
api_muladd(unsigned char * A,const unsigned char * B,size_t len,const unsigned char * x,size_t xlen,const unsigned char * y,size_t ylen,int curve)558*0957b409SSimon J. Gerraty api_muladd(unsigned char *A, const unsigned char *B, size_t len,
559*0957b409SSimon J. Gerraty 	const unsigned char *x, size_t xlen,
560*0957b409SSimon J. Gerraty 	const unsigned char *y, size_t ylen, int curve)
561*0957b409SSimon J. Gerraty {
562*0957b409SSimon J. Gerraty 	/*
563*0957b409SSimon J. Gerraty 	 * We don't implement this method, since it is used for ECDSA
564*0957b409SSimon J. Gerraty 	 * only, and there is no ECDSA over Curve25519 (which instead
565*0957b409SSimon J. Gerraty 	 * uses EdDSA).
566*0957b409SSimon J. Gerraty 	 */
567*0957b409SSimon J. Gerraty 	(void)A;
568*0957b409SSimon J. Gerraty 	(void)B;
569*0957b409SSimon J. Gerraty 	(void)len;
570*0957b409SSimon J. Gerraty 	(void)x;
571*0957b409SSimon J. Gerraty 	(void)xlen;
572*0957b409SSimon J. Gerraty 	(void)y;
573*0957b409SSimon J. Gerraty 	(void)ylen;
574*0957b409SSimon J. Gerraty 	(void)curve;
575*0957b409SSimon J. Gerraty 	return 0;
576*0957b409SSimon J. Gerraty }
577*0957b409SSimon J. Gerraty 
578*0957b409SSimon J. Gerraty /* see bearssl_ec.h */
579*0957b409SSimon J. Gerraty const br_ec_impl br_ec_c25519_m62 = {
580*0957b409SSimon J. Gerraty 	(uint32_t)0x20000000,
581*0957b409SSimon J. Gerraty 	&api_generator,
582*0957b409SSimon J. Gerraty 	&api_order,
583*0957b409SSimon J. Gerraty 	&api_xoff,
584*0957b409SSimon J. Gerraty 	&api_mul,
585*0957b409SSimon J. Gerraty 	&api_mulgen,
586*0957b409SSimon J. Gerraty 	&api_muladd
587*0957b409SSimon J. Gerraty };
588*0957b409SSimon J. Gerraty 
589*0957b409SSimon J. Gerraty /* see bearssl_ec.h */
590*0957b409SSimon J. Gerraty const br_ec_impl *
br_ec_c25519_m62_get(void)591*0957b409SSimon J. Gerraty br_ec_c25519_m62_get(void)
592*0957b409SSimon J. Gerraty {
593*0957b409SSimon J. Gerraty 	return &br_ec_c25519_m62;
594*0957b409SSimon J. Gerraty }
595*0957b409SSimon J. Gerraty 
596*0957b409SSimon J. Gerraty #else
597*0957b409SSimon J. Gerraty 
598*0957b409SSimon J. Gerraty /* see bearssl_ec.h */
599*0957b409SSimon J. Gerraty const br_ec_impl *
br_ec_c25519_m62_get(void)600*0957b409SSimon J. Gerraty br_ec_c25519_m62_get(void)
601*0957b409SSimon J. Gerraty {
602*0957b409SSimon J. Gerraty 	return 0;
603*0957b409SSimon J. Gerraty }
604*0957b409SSimon J. Gerraty 
605*0957b409SSimon J. Gerraty #endif
606