xref: /openbmc/linux/lib/crypto/mpi/mpih-div.c (revision 2a598d0b)
1*2a598d0bSHerbert Xu // SPDX-License-Identifier: GPL-2.0-or-later
2*2a598d0bSHerbert Xu /* mpihelp-div.c  -  MPI helper functions
3*2a598d0bSHerbert Xu  *	Copyright (C) 1994, 1996 Free Software Foundation, Inc.
4*2a598d0bSHerbert Xu  *	Copyright (C) 1998, 1999 Free Software Foundation, Inc.
5*2a598d0bSHerbert Xu  *
6*2a598d0bSHerbert Xu  * This file is part of GnuPG.
7*2a598d0bSHerbert Xu  *
8*2a598d0bSHerbert Xu  * Note: This code is heavily based on the GNU MP Library.
9*2a598d0bSHerbert Xu  *	 Actually it's the same code with only minor changes in the
10*2a598d0bSHerbert Xu  *	 way the data is stored; this is to support the abstraction
11*2a598d0bSHerbert Xu  *	 of an optional secure memory allocation which may be used
12*2a598d0bSHerbert Xu  *	 to avoid revealing of sensitive data due to paging etc.
13*2a598d0bSHerbert Xu  *	 The GNU MP Library itself is published under the LGPL;
14*2a598d0bSHerbert Xu  *	 however I decided to publish this code under the plain GPL.
15*2a598d0bSHerbert Xu  */
16*2a598d0bSHerbert Xu 
17*2a598d0bSHerbert Xu #include "mpi-internal.h"
18*2a598d0bSHerbert Xu #include "longlong.h"
19*2a598d0bSHerbert Xu 
20*2a598d0bSHerbert Xu #ifndef UMUL_TIME
21*2a598d0bSHerbert Xu #define UMUL_TIME 1
22*2a598d0bSHerbert Xu #endif
23*2a598d0bSHerbert Xu #ifndef UDIV_TIME
24*2a598d0bSHerbert Xu #define UDIV_TIME UMUL_TIME
25*2a598d0bSHerbert Xu #endif
26*2a598d0bSHerbert Xu 
27*2a598d0bSHerbert Xu 
28*2a598d0bSHerbert Xu mpi_limb_t
mpihelp_mod_1(mpi_ptr_t dividend_ptr,mpi_size_t dividend_size,mpi_limb_t divisor_limb)29*2a598d0bSHerbert Xu mpihelp_mod_1(mpi_ptr_t dividend_ptr, mpi_size_t dividend_size,
30*2a598d0bSHerbert Xu 			mpi_limb_t divisor_limb)
31*2a598d0bSHerbert Xu {
32*2a598d0bSHerbert Xu 	mpi_size_t i;
33*2a598d0bSHerbert Xu 	mpi_limb_t n1, n0, r;
34*2a598d0bSHerbert Xu 	mpi_limb_t dummy __maybe_unused;
35*2a598d0bSHerbert Xu 
36*2a598d0bSHerbert Xu 	/* Botch: Should this be handled at all?  Rely on callers?	*/
37*2a598d0bSHerbert Xu 	if (!dividend_size)
38*2a598d0bSHerbert Xu 		return 0;
39*2a598d0bSHerbert Xu 
40*2a598d0bSHerbert Xu 	/* If multiplication is much faster than division, and the
41*2a598d0bSHerbert Xu 	 * dividend is large, pre-invert the divisor, and use
42*2a598d0bSHerbert Xu 	 * only multiplications in the inner loop.
43*2a598d0bSHerbert Xu 	 *
44*2a598d0bSHerbert Xu 	 * This test should be read:
45*2a598d0bSHerbert Xu 	 *	 Does it ever help to use udiv_qrnnd_preinv?
46*2a598d0bSHerbert Xu 	 *	   && Does what we save compensate for the inversion overhead?
47*2a598d0bSHerbert Xu 	 */
48*2a598d0bSHerbert Xu 	if (UDIV_TIME > (2 * UMUL_TIME + 6)
49*2a598d0bSHerbert Xu 			&& (UDIV_TIME - (2 * UMUL_TIME + 6)) * dividend_size > UDIV_TIME) {
50*2a598d0bSHerbert Xu 		int normalization_steps;
51*2a598d0bSHerbert Xu 
52*2a598d0bSHerbert Xu 		normalization_steps = count_leading_zeros(divisor_limb);
53*2a598d0bSHerbert Xu 		if (normalization_steps) {
54*2a598d0bSHerbert Xu 			mpi_limb_t divisor_limb_inverted;
55*2a598d0bSHerbert Xu 
56*2a598d0bSHerbert Xu 			divisor_limb <<= normalization_steps;
57*2a598d0bSHerbert Xu 
58*2a598d0bSHerbert Xu 			/* Compute (2**2N - 2**N * DIVISOR_LIMB) / DIVISOR_LIMB.  The
59*2a598d0bSHerbert Xu 			 * result is a (N+1)-bit approximation to 1/DIVISOR_LIMB, with the
60*2a598d0bSHerbert Xu 			 * most significant bit (with weight 2**N) implicit.
61*2a598d0bSHerbert Xu 			 *
62*2a598d0bSHerbert Xu 			 * Special case for DIVISOR_LIMB == 100...000.
63*2a598d0bSHerbert Xu 			 */
64*2a598d0bSHerbert Xu 			if (!(divisor_limb << 1))
65*2a598d0bSHerbert Xu 				divisor_limb_inverted = ~(mpi_limb_t)0;
66*2a598d0bSHerbert Xu 			else
67*2a598d0bSHerbert Xu 				udiv_qrnnd(divisor_limb_inverted, dummy,
68*2a598d0bSHerbert Xu 						-divisor_limb, 0, divisor_limb);
69*2a598d0bSHerbert Xu 
70*2a598d0bSHerbert Xu 			n1 = dividend_ptr[dividend_size - 1];
71*2a598d0bSHerbert Xu 			r = n1 >> (BITS_PER_MPI_LIMB - normalization_steps);
72*2a598d0bSHerbert Xu 
73*2a598d0bSHerbert Xu 			/* Possible optimization:
74*2a598d0bSHerbert Xu 			 * if (r == 0
75*2a598d0bSHerbert Xu 			 * && divisor_limb > ((n1 << normalization_steps)
76*2a598d0bSHerbert Xu 			 *		       | (dividend_ptr[dividend_size - 2] >> ...)))
77*2a598d0bSHerbert Xu 			 * ...one division less...
78*2a598d0bSHerbert Xu 			 */
79*2a598d0bSHerbert Xu 			for (i = dividend_size - 2; i >= 0; i--) {
80*2a598d0bSHerbert Xu 				n0 = dividend_ptr[i];
81*2a598d0bSHerbert Xu 				UDIV_QRNND_PREINV(dummy, r, r,
82*2a598d0bSHerbert Xu 						((n1 << normalization_steps)
83*2a598d0bSHerbert Xu 						 | (n0 >> (BITS_PER_MPI_LIMB - normalization_steps))),
84*2a598d0bSHerbert Xu 						divisor_limb, divisor_limb_inverted);
85*2a598d0bSHerbert Xu 				n1 = n0;
86*2a598d0bSHerbert Xu 			}
87*2a598d0bSHerbert Xu 			UDIV_QRNND_PREINV(dummy, r, r,
88*2a598d0bSHerbert Xu 					n1 << normalization_steps,
89*2a598d0bSHerbert Xu 					divisor_limb, divisor_limb_inverted);
90*2a598d0bSHerbert Xu 			return r >> normalization_steps;
91*2a598d0bSHerbert Xu 		} else {
92*2a598d0bSHerbert Xu 			mpi_limb_t divisor_limb_inverted;
93*2a598d0bSHerbert Xu 
94*2a598d0bSHerbert Xu 			/* Compute (2**2N - 2**N * DIVISOR_LIMB) / DIVISOR_LIMB.  The
95*2a598d0bSHerbert Xu 			 * result is a (N+1)-bit approximation to 1/DIVISOR_LIMB, with the
96*2a598d0bSHerbert Xu 			 * most significant bit (with weight 2**N) implicit.
97*2a598d0bSHerbert Xu 			 *
98*2a598d0bSHerbert Xu 			 * Special case for DIVISOR_LIMB == 100...000.
99*2a598d0bSHerbert Xu 			 */
100*2a598d0bSHerbert Xu 			if (!(divisor_limb << 1))
101*2a598d0bSHerbert Xu 				divisor_limb_inverted = ~(mpi_limb_t)0;
102*2a598d0bSHerbert Xu 			else
103*2a598d0bSHerbert Xu 				udiv_qrnnd(divisor_limb_inverted, dummy,
104*2a598d0bSHerbert Xu 						-divisor_limb, 0, divisor_limb);
105*2a598d0bSHerbert Xu 
106*2a598d0bSHerbert Xu 			i = dividend_size - 1;
107*2a598d0bSHerbert Xu 			r = dividend_ptr[i];
108*2a598d0bSHerbert Xu 
109*2a598d0bSHerbert Xu 			if (r >= divisor_limb)
110*2a598d0bSHerbert Xu 				r = 0;
111*2a598d0bSHerbert Xu 			else
112*2a598d0bSHerbert Xu 				i--;
113*2a598d0bSHerbert Xu 
114*2a598d0bSHerbert Xu 			for ( ; i >= 0; i--) {
115*2a598d0bSHerbert Xu 				n0 = dividend_ptr[i];
116*2a598d0bSHerbert Xu 				UDIV_QRNND_PREINV(dummy, r, r,
117*2a598d0bSHerbert Xu 						n0, divisor_limb, divisor_limb_inverted);
118*2a598d0bSHerbert Xu 			}
119*2a598d0bSHerbert Xu 			return r;
120*2a598d0bSHerbert Xu 		}
121*2a598d0bSHerbert Xu 	} else {
122*2a598d0bSHerbert Xu 		if (UDIV_NEEDS_NORMALIZATION) {
123*2a598d0bSHerbert Xu 			int normalization_steps;
124*2a598d0bSHerbert Xu 
125*2a598d0bSHerbert Xu 			normalization_steps = count_leading_zeros(divisor_limb);
126*2a598d0bSHerbert Xu 			if (normalization_steps) {
127*2a598d0bSHerbert Xu 				divisor_limb <<= normalization_steps;
128*2a598d0bSHerbert Xu 
129*2a598d0bSHerbert Xu 				n1 = dividend_ptr[dividend_size - 1];
130*2a598d0bSHerbert Xu 				r = n1 >> (BITS_PER_MPI_LIMB - normalization_steps);
131*2a598d0bSHerbert Xu 
132*2a598d0bSHerbert Xu 				/* Possible optimization:
133*2a598d0bSHerbert Xu 				 * if (r == 0
134*2a598d0bSHerbert Xu 				 * && divisor_limb > ((n1 << normalization_steps)
135*2a598d0bSHerbert Xu 				 *		   | (dividend_ptr[dividend_size - 2] >> ...)))
136*2a598d0bSHerbert Xu 				 * ...one division less...
137*2a598d0bSHerbert Xu 				 */
138*2a598d0bSHerbert Xu 				for (i = dividend_size - 2; i >= 0; i--) {
139*2a598d0bSHerbert Xu 					n0 = dividend_ptr[i];
140*2a598d0bSHerbert Xu 					udiv_qrnnd(dummy, r, r,
141*2a598d0bSHerbert Xu 						((n1 << normalization_steps)
142*2a598d0bSHerbert Xu 						 | (n0 >> (BITS_PER_MPI_LIMB - normalization_steps))),
143*2a598d0bSHerbert Xu 						divisor_limb);
144*2a598d0bSHerbert Xu 					n1 = n0;
145*2a598d0bSHerbert Xu 				}
146*2a598d0bSHerbert Xu 				udiv_qrnnd(dummy, r, r,
147*2a598d0bSHerbert Xu 						n1 << normalization_steps,
148*2a598d0bSHerbert Xu 						divisor_limb);
149*2a598d0bSHerbert Xu 				return r >> normalization_steps;
150*2a598d0bSHerbert Xu 			}
151*2a598d0bSHerbert Xu 		}
152*2a598d0bSHerbert Xu 		/* No normalization needed, either because udiv_qrnnd doesn't require
153*2a598d0bSHerbert Xu 		 * it, or because DIVISOR_LIMB is already normalized.
154*2a598d0bSHerbert Xu 		 */
155*2a598d0bSHerbert Xu 		i = dividend_size - 1;
156*2a598d0bSHerbert Xu 		r = dividend_ptr[i];
157*2a598d0bSHerbert Xu 
158*2a598d0bSHerbert Xu 		if (r >= divisor_limb)
159*2a598d0bSHerbert Xu 			r = 0;
160*2a598d0bSHerbert Xu 		else
161*2a598d0bSHerbert Xu 			i--;
162*2a598d0bSHerbert Xu 
163*2a598d0bSHerbert Xu 		for (; i >= 0; i--) {
164*2a598d0bSHerbert Xu 			n0 = dividend_ptr[i];
165*2a598d0bSHerbert Xu 			udiv_qrnnd(dummy, r, r, n0, divisor_limb);
166*2a598d0bSHerbert Xu 		}
167*2a598d0bSHerbert Xu 		return r;
168*2a598d0bSHerbert Xu 	}
169*2a598d0bSHerbert Xu }
170*2a598d0bSHerbert Xu 
171*2a598d0bSHerbert Xu /* Divide num (NP/NSIZE) by den (DP/DSIZE) and write
172*2a598d0bSHerbert Xu  * the NSIZE-DSIZE least significant quotient limbs at QP
173*2a598d0bSHerbert Xu  * and the DSIZE long remainder at NP.	If QEXTRA_LIMBS is
174*2a598d0bSHerbert Xu  * non-zero, generate that many fraction bits and append them after the
175*2a598d0bSHerbert Xu  * other quotient limbs.
176*2a598d0bSHerbert Xu  * Return the most significant limb of the quotient, this is always 0 or 1.
177*2a598d0bSHerbert Xu  *
178*2a598d0bSHerbert Xu  * Preconditions:
179*2a598d0bSHerbert Xu  * 0. NSIZE >= DSIZE.
180*2a598d0bSHerbert Xu  * 1. The most significant bit of the divisor must be set.
181*2a598d0bSHerbert Xu  * 2. QP must either not overlap with the input operands at all, or
182*2a598d0bSHerbert Xu  *    QP + DSIZE >= NP must hold true.	(This means that it's
183*2a598d0bSHerbert Xu  *    possible to put the quotient in the high part of NUM, right after the
184*2a598d0bSHerbert Xu  *    remainder in NUM.
185*2a598d0bSHerbert Xu  * 3. NSIZE >= DSIZE, even if QEXTRA_LIMBS is non-zero.
186*2a598d0bSHerbert Xu  */
187*2a598d0bSHerbert Xu 
188*2a598d0bSHerbert Xu mpi_limb_t
mpihelp_divrem(mpi_ptr_t qp,mpi_size_t qextra_limbs,mpi_ptr_t np,mpi_size_t nsize,mpi_ptr_t dp,mpi_size_t dsize)189*2a598d0bSHerbert Xu mpihelp_divrem(mpi_ptr_t qp, mpi_size_t qextra_limbs,
190*2a598d0bSHerbert Xu 	       mpi_ptr_t np, mpi_size_t nsize, mpi_ptr_t dp, mpi_size_t dsize)
191*2a598d0bSHerbert Xu {
192*2a598d0bSHerbert Xu 	mpi_limb_t most_significant_q_limb = 0;
193*2a598d0bSHerbert Xu 
194*2a598d0bSHerbert Xu 	switch (dsize) {
195*2a598d0bSHerbert Xu 	case 0:
196*2a598d0bSHerbert Xu 		/* We are asked to divide by zero, so go ahead and do it!  (To make
197*2a598d0bSHerbert Xu 		   the compiler not remove this statement, return the value.)  */
198*2a598d0bSHerbert Xu 		/*
199*2a598d0bSHerbert Xu 		 * existing clients of this function have been modified
200*2a598d0bSHerbert Xu 		 * not to call it with dsize == 0, so this should not happen
201*2a598d0bSHerbert Xu 		 */
202*2a598d0bSHerbert Xu 		return 1 / dsize;
203*2a598d0bSHerbert Xu 
204*2a598d0bSHerbert Xu 	case 1:
205*2a598d0bSHerbert Xu 		{
206*2a598d0bSHerbert Xu 			mpi_size_t i;
207*2a598d0bSHerbert Xu 			mpi_limb_t n1;
208*2a598d0bSHerbert Xu 			mpi_limb_t d;
209*2a598d0bSHerbert Xu 
210*2a598d0bSHerbert Xu 			d = dp[0];
211*2a598d0bSHerbert Xu 			n1 = np[nsize - 1];
212*2a598d0bSHerbert Xu 
213*2a598d0bSHerbert Xu 			if (n1 >= d) {
214*2a598d0bSHerbert Xu 				n1 -= d;
215*2a598d0bSHerbert Xu 				most_significant_q_limb = 1;
216*2a598d0bSHerbert Xu 			}
217*2a598d0bSHerbert Xu 
218*2a598d0bSHerbert Xu 			qp += qextra_limbs;
219*2a598d0bSHerbert Xu 			for (i = nsize - 2; i >= 0; i--)
220*2a598d0bSHerbert Xu 				udiv_qrnnd(qp[i], n1, n1, np[i], d);
221*2a598d0bSHerbert Xu 			qp -= qextra_limbs;
222*2a598d0bSHerbert Xu 
223*2a598d0bSHerbert Xu 			for (i = qextra_limbs - 1; i >= 0; i--)
224*2a598d0bSHerbert Xu 				udiv_qrnnd(qp[i], n1, n1, 0, d);
225*2a598d0bSHerbert Xu 
226*2a598d0bSHerbert Xu 			np[0] = n1;
227*2a598d0bSHerbert Xu 		}
228*2a598d0bSHerbert Xu 		break;
229*2a598d0bSHerbert Xu 
230*2a598d0bSHerbert Xu 	case 2:
231*2a598d0bSHerbert Xu 		{
232*2a598d0bSHerbert Xu 			mpi_size_t i;
233*2a598d0bSHerbert Xu 			mpi_limb_t n1, n0, n2;
234*2a598d0bSHerbert Xu 			mpi_limb_t d1, d0;
235*2a598d0bSHerbert Xu 
236*2a598d0bSHerbert Xu 			np += nsize - 2;
237*2a598d0bSHerbert Xu 			d1 = dp[1];
238*2a598d0bSHerbert Xu 			d0 = dp[0];
239*2a598d0bSHerbert Xu 			n1 = np[1];
240*2a598d0bSHerbert Xu 			n0 = np[0];
241*2a598d0bSHerbert Xu 
242*2a598d0bSHerbert Xu 			if (n1 >= d1 && (n1 > d1 || n0 >= d0)) {
243*2a598d0bSHerbert Xu 				sub_ddmmss(n1, n0, n1, n0, d1, d0);
244*2a598d0bSHerbert Xu 				most_significant_q_limb = 1;
245*2a598d0bSHerbert Xu 			}
246*2a598d0bSHerbert Xu 
247*2a598d0bSHerbert Xu 			for (i = qextra_limbs + nsize - 2 - 1; i >= 0; i--) {
248*2a598d0bSHerbert Xu 				mpi_limb_t q;
249*2a598d0bSHerbert Xu 				mpi_limb_t r;
250*2a598d0bSHerbert Xu 
251*2a598d0bSHerbert Xu 				if (i >= qextra_limbs)
252*2a598d0bSHerbert Xu 					np--;
253*2a598d0bSHerbert Xu 				else
254*2a598d0bSHerbert Xu 					np[0] = 0;
255*2a598d0bSHerbert Xu 
256*2a598d0bSHerbert Xu 				if (n1 == d1) {
257*2a598d0bSHerbert Xu 					/* Q should be either 111..111 or 111..110.  Need special
258*2a598d0bSHerbert Xu 					 * treatment of this rare case as normal division would
259*2a598d0bSHerbert Xu 					 * give overflow.  */
260*2a598d0bSHerbert Xu 					q = ~(mpi_limb_t) 0;
261*2a598d0bSHerbert Xu 
262*2a598d0bSHerbert Xu 					r = n0 + d1;
263*2a598d0bSHerbert Xu 					if (r < d1) {	/* Carry in the addition? */
264*2a598d0bSHerbert Xu 						add_ssaaaa(n1, n0, r - d0,
265*2a598d0bSHerbert Xu 							   np[0], 0, d0);
266*2a598d0bSHerbert Xu 						qp[i] = q;
267*2a598d0bSHerbert Xu 						continue;
268*2a598d0bSHerbert Xu 					}
269*2a598d0bSHerbert Xu 					n1 = d0 - (d0 != 0 ? 1 : 0);
270*2a598d0bSHerbert Xu 					n0 = -d0;
271*2a598d0bSHerbert Xu 				} else {
272*2a598d0bSHerbert Xu 					udiv_qrnnd(q, r, n1, n0, d1);
273*2a598d0bSHerbert Xu 					umul_ppmm(n1, n0, d0, q);
274*2a598d0bSHerbert Xu 				}
275*2a598d0bSHerbert Xu 
276*2a598d0bSHerbert Xu 				n2 = np[0];
277*2a598d0bSHerbert Xu q_test:
278*2a598d0bSHerbert Xu 				if (n1 > r || (n1 == r && n0 > n2)) {
279*2a598d0bSHerbert Xu 					/* The estimated Q was too large.  */
280*2a598d0bSHerbert Xu 					q--;
281*2a598d0bSHerbert Xu 					sub_ddmmss(n1, n0, n1, n0, 0, d0);
282*2a598d0bSHerbert Xu 					r += d1;
283*2a598d0bSHerbert Xu 					if (r >= d1)	/* If not carry, test Q again.  */
284*2a598d0bSHerbert Xu 						goto q_test;
285*2a598d0bSHerbert Xu 				}
286*2a598d0bSHerbert Xu 
287*2a598d0bSHerbert Xu 				qp[i] = q;
288*2a598d0bSHerbert Xu 				sub_ddmmss(n1, n0, r, n2, n1, n0);
289*2a598d0bSHerbert Xu 			}
290*2a598d0bSHerbert Xu 			np[1] = n1;
291*2a598d0bSHerbert Xu 			np[0] = n0;
292*2a598d0bSHerbert Xu 		}
293*2a598d0bSHerbert Xu 		break;
294*2a598d0bSHerbert Xu 
295*2a598d0bSHerbert Xu 	default:
296*2a598d0bSHerbert Xu 		{
297*2a598d0bSHerbert Xu 			mpi_size_t i;
298*2a598d0bSHerbert Xu 			mpi_limb_t dX, d1, n0;
299*2a598d0bSHerbert Xu 
300*2a598d0bSHerbert Xu 			np += nsize - dsize;
301*2a598d0bSHerbert Xu 			dX = dp[dsize - 1];
302*2a598d0bSHerbert Xu 			d1 = dp[dsize - 2];
303*2a598d0bSHerbert Xu 			n0 = np[dsize - 1];
304*2a598d0bSHerbert Xu 
305*2a598d0bSHerbert Xu 			if (n0 >= dX) {
306*2a598d0bSHerbert Xu 				if (n0 > dX
307*2a598d0bSHerbert Xu 				    || mpihelp_cmp(np, dp, dsize - 1) >= 0) {
308*2a598d0bSHerbert Xu 					mpihelp_sub_n(np, np, dp, dsize);
309*2a598d0bSHerbert Xu 					n0 = np[dsize - 1];
310*2a598d0bSHerbert Xu 					most_significant_q_limb = 1;
311*2a598d0bSHerbert Xu 				}
312*2a598d0bSHerbert Xu 			}
313*2a598d0bSHerbert Xu 
314*2a598d0bSHerbert Xu 			for (i = qextra_limbs + nsize - dsize - 1; i >= 0; i--) {
315*2a598d0bSHerbert Xu 				mpi_limb_t q;
316*2a598d0bSHerbert Xu 				mpi_limb_t n1, n2;
317*2a598d0bSHerbert Xu 				mpi_limb_t cy_limb;
318*2a598d0bSHerbert Xu 
319*2a598d0bSHerbert Xu 				if (i >= qextra_limbs) {
320*2a598d0bSHerbert Xu 					np--;
321*2a598d0bSHerbert Xu 					n2 = np[dsize];
322*2a598d0bSHerbert Xu 				} else {
323*2a598d0bSHerbert Xu 					n2 = np[dsize - 1];
324*2a598d0bSHerbert Xu 					MPN_COPY_DECR(np + 1, np, dsize - 1);
325*2a598d0bSHerbert Xu 					np[0] = 0;
326*2a598d0bSHerbert Xu 				}
327*2a598d0bSHerbert Xu 
328*2a598d0bSHerbert Xu 				if (n0 == dX) {
329*2a598d0bSHerbert Xu 					/* This might over-estimate q, but it's probably not worth
330*2a598d0bSHerbert Xu 					 * the extra code here to find out.  */
331*2a598d0bSHerbert Xu 					q = ~(mpi_limb_t) 0;
332*2a598d0bSHerbert Xu 				} else {
333*2a598d0bSHerbert Xu 					mpi_limb_t r;
334*2a598d0bSHerbert Xu 
335*2a598d0bSHerbert Xu 					udiv_qrnnd(q, r, n0, np[dsize - 1], dX);
336*2a598d0bSHerbert Xu 					umul_ppmm(n1, n0, d1, q);
337*2a598d0bSHerbert Xu 
338*2a598d0bSHerbert Xu 					while (n1 > r
339*2a598d0bSHerbert Xu 					       || (n1 == r
340*2a598d0bSHerbert Xu 						   && n0 > np[dsize - 2])) {
341*2a598d0bSHerbert Xu 						q--;
342*2a598d0bSHerbert Xu 						r += dX;
343*2a598d0bSHerbert Xu 						if (r < dX)	/* I.e. "carry in previous addition?" */
344*2a598d0bSHerbert Xu 							break;
345*2a598d0bSHerbert Xu 						n1 -= n0 < d1;
346*2a598d0bSHerbert Xu 						n0 -= d1;
347*2a598d0bSHerbert Xu 					}
348*2a598d0bSHerbert Xu 				}
349*2a598d0bSHerbert Xu 
350*2a598d0bSHerbert Xu 				/* Possible optimization: We already have (q * n0) and (1 * n1)
351*2a598d0bSHerbert Xu 				 * after the calculation of q.  Taking advantage of that, we
352*2a598d0bSHerbert Xu 				 * could make this loop make two iterations less.  */
353*2a598d0bSHerbert Xu 				cy_limb = mpihelp_submul_1(np, dp, dsize, q);
354*2a598d0bSHerbert Xu 
355*2a598d0bSHerbert Xu 				if (n2 != cy_limb) {
356*2a598d0bSHerbert Xu 					mpihelp_add_n(np, np, dp, dsize);
357*2a598d0bSHerbert Xu 					q--;
358*2a598d0bSHerbert Xu 				}
359*2a598d0bSHerbert Xu 
360*2a598d0bSHerbert Xu 				qp[i] = q;
361*2a598d0bSHerbert Xu 				n0 = np[dsize - 1];
362*2a598d0bSHerbert Xu 			}
363*2a598d0bSHerbert Xu 		}
364*2a598d0bSHerbert Xu 	}
365*2a598d0bSHerbert Xu 
366*2a598d0bSHerbert Xu 	return most_significant_q_limb;
367*2a598d0bSHerbert Xu }
368*2a598d0bSHerbert Xu 
369*2a598d0bSHerbert Xu /****************
370*2a598d0bSHerbert Xu  * Divide (DIVIDEND_PTR,,DIVIDEND_SIZE) by DIVISOR_LIMB.
371*2a598d0bSHerbert Xu  * Write DIVIDEND_SIZE limbs of quotient at QUOT_PTR.
372*2a598d0bSHerbert Xu  * Return the single-limb remainder.
373*2a598d0bSHerbert Xu  * There are no constraints on the value of the divisor.
374*2a598d0bSHerbert Xu  *
375*2a598d0bSHerbert Xu  * QUOT_PTR and DIVIDEND_PTR might point to the same limb.
376*2a598d0bSHerbert Xu  */
377*2a598d0bSHerbert Xu 
378*2a598d0bSHerbert Xu mpi_limb_t
mpihelp_divmod_1(mpi_ptr_t quot_ptr,mpi_ptr_t dividend_ptr,mpi_size_t dividend_size,mpi_limb_t divisor_limb)379*2a598d0bSHerbert Xu mpihelp_divmod_1(mpi_ptr_t quot_ptr,
380*2a598d0bSHerbert Xu 		mpi_ptr_t dividend_ptr, mpi_size_t dividend_size,
381*2a598d0bSHerbert Xu 		mpi_limb_t divisor_limb)
382*2a598d0bSHerbert Xu {
383*2a598d0bSHerbert Xu 	mpi_size_t i;
384*2a598d0bSHerbert Xu 	mpi_limb_t n1, n0, r;
385*2a598d0bSHerbert Xu 	mpi_limb_t dummy __maybe_unused;
386*2a598d0bSHerbert Xu 
387*2a598d0bSHerbert Xu 	if (!dividend_size)
388*2a598d0bSHerbert Xu 		return 0;
389*2a598d0bSHerbert Xu 
390*2a598d0bSHerbert Xu 	/* If multiplication is much faster than division, and the
391*2a598d0bSHerbert Xu 	 * dividend is large, pre-invert the divisor, and use
392*2a598d0bSHerbert Xu 	 * only multiplications in the inner loop.
393*2a598d0bSHerbert Xu 	 *
394*2a598d0bSHerbert Xu 	 * This test should be read:
395*2a598d0bSHerbert Xu 	 * Does it ever help to use udiv_qrnnd_preinv?
396*2a598d0bSHerbert Xu 	 * && Does what we save compensate for the inversion overhead?
397*2a598d0bSHerbert Xu 	 */
398*2a598d0bSHerbert Xu 	if (UDIV_TIME > (2 * UMUL_TIME + 6)
399*2a598d0bSHerbert Xu 			&& (UDIV_TIME - (2 * UMUL_TIME + 6)) * dividend_size > UDIV_TIME) {
400*2a598d0bSHerbert Xu 		int normalization_steps;
401*2a598d0bSHerbert Xu 
402*2a598d0bSHerbert Xu 		normalization_steps = count_leading_zeros(divisor_limb);
403*2a598d0bSHerbert Xu 		if (normalization_steps) {
404*2a598d0bSHerbert Xu 			mpi_limb_t divisor_limb_inverted;
405*2a598d0bSHerbert Xu 
406*2a598d0bSHerbert Xu 			divisor_limb <<= normalization_steps;
407*2a598d0bSHerbert Xu 
408*2a598d0bSHerbert Xu 			/* Compute (2**2N - 2**N * DIVISOR_LIMB) / DIVISOR_LIMB.  The
409*2a598d0bSHerbert Xu 			 * result is a (N+1)-bit approximation to 1/DIVISOR_LIMB, with the
410*2a598d0bSHerbert Xu 			 * most significant bit (with weight 2**N) implicit.
411*2a598d0bSHerbert Xu 			 */
412*2a598d0bSHerbert Xu 			/* Special case for DIVISOR_LIMB == 100...000.  */
413*2a598d0bSHerbert Xu 			if (!(divisor_limb << 1))
414*2a598d0bSHerbert Xu 				divisor_limb_inverted = ~(mpi_limb_t)0;
415*2a598d0bSHerbert Xu 			else
416*2a598d0bSHerbert Xu 				udiv_qrnnd(divisor_limb_inverted, dummy,
417*2a598d0bSHerbert Xu 						-divisor_limb, 0, divisor_limb);
418*2a598d0bSHerbert Xu 
419*2a598d0bSHerbert Xu 			n1 = dividend_ptr[dividend_size - 1];
420*2a598d0bSHerbert Xu 			r = n1 >> (BITS_PER_MPI_LIMB - normalization_steps);
421*2a598d0bSHerbert Xu 
422*2a598d0bSHerbert Xu 			/* Possible optimization:
423*2a598d0bSHerbert Xu 			 * if (r == 0
424*2a598d0bSHerbert Xu 			 * && divisor_limb > ((n1 << normalization_steps)
425*2a598d0bSHerbert Xu 			 *		       | (dividend_ptr[dividend_size - 2] >> ...)))
426*2a598d0bSHerbert Xu 			 * ...one division less...
427*2a598d0bSHerbert Xu 			 */
428*2a598d0bSHerbert Xu 			for (i = dividend_size - 2; i >= 0; i--) {
429*2a598d0bSHerbert Xu 				n0 = dividend_ptr[i];
430*2a598d0bSHerbert Xu 				UDIV_QRNND_PREINV(quot_ptr[i + 1], r, r,
431*2a598d0bSHerbert Xu 						((n1 << normalization_steps)
432*2a598d0bSHerbert Xu 						 | (n0 >> (BITS_PER_MPI_LIMB - normalization_steps))),
433*2a598d0bSHerbert Xu 						divisor_limb, divisor_limb_inverted);
434*2a598d0bSHerbert Xu 				n1 = n0;
435*2a598d0bSHerbert Xu 			}
436*2a598d0bSHerbert Xu 			UDIV_QRNND_PREINV(quot_ptr[0], r, r,
437*2a598d0bSHerbert Xu 					n1 << normalization_steps,
438*2a598d0bSHerbert Xu 					divisor_limb, divisor_limb_inverted);
439*2a598d0bSHerbert Xu 			return r >> normalization_steps;
440*2a598d0bSHerbert Xu 		} else {
441*2a598d0bSHerbert Xu 			mpi_limb_t divisor_limb_inverted;
442*2a598d0bSHerbert Xu 
443*2a598d0bSHerbert Xu 			/* Compute (2**2N - 2**N * DIVISOR_LIMB) / DIVISOR_LIMB.  The
444*2a598d0bSHerbert Xu 			 * result is a (N+1)-bit approximation to 1/DIVISOR_LIMB, with the
445*2a598d0bSHerbert Xu 			 * most significant bit (with weight 2**N) implicit.
446*2a598d0bSHerbert Xu 			 */
447*2a598d0bSHerbert Xu 			/* Special case for DIVISOR_LIMB == 100...000.  */
448*2a598d0bSHerbert Xu 			if (!(divisor_limb << 1))
449*2a598d0bSHerbert Xu 				divisor_limb_inverted = ~(mpi_limb_t) 0;
450*2a598d0bSHerbert Xu 			else
451*2a598d0bSHerbert Xu 				udiv_qrnnd(divisor_limb_inverted, dummy,
452*2a598d0bSHerbert Xu 						-divisor_limb, 0, divisor_limb);
453*2a598d0bSHerbert Xu 
454*2a598d0bSHerbert Xu 			i = dividend_size - 1;
455*2a598d0bSHerbert Xu 			r = dividend_ptr[i];
456*2a598d0bSHerbert Xu 
457*2a598d0bSHerbert Xu 			if (r >= divisor_limb)
458*2a598d0bSHerbert Xu 				r = 0;
459*2a598d0bSHerbert Xu 			else
460*2a598d0bSHerbert Xu 				quot_ptr[i--] = 0;
461*2a598d0bSHerbert Xu 
462*2a598d0bSHerbert Xu 			for ( ; i >= 0; i--) {
463*2a598d0bSHerbert Xu 				n0 = dividend_ptr[i];
464*2a598d0bSHerbert Xu 				UDIV_QRNND_PREINV(quot_ptr[i], r, r,
465*2a598d0bSHerbert Xu 						n0, divisor_limb, divisor_limb_inverted);
466*2a598d0bSHerbert Xu 			}
467*2a598d0bSHerbert Xu 			return r;
468*2a598d0bSHerbert Xu 		}
469*2a598d0bSHerbert Xu 	} else {
470*2a598d0bSHerbert Xu 		if (UDIV_NEEDS_NORMALIZATION) {
471*2a598d0bSHerbert Xu 			int normalization_steps;
472*2a598d0bSHerbert Xu 
473*2a598d0bSHerbert Xu 			normalization_steps = count_leading_zeros(divisor_limb);
474*2a598d0bSHerbert Xu 			if (normalization_steps) {
475*2a598d0bSHerbert Xu 				divisor_limb <<= normalization_steps;
476*2a598d0bSHerbert Xu 
477*2a598d0bSHerbert Xu 				n1 = dividend_ptr[dividend_size - 1];
478*2a598d0bSHerbert Xu 				r = n1 >> (BITS_PER_MPI_LIMB - normalization_steps);
479*2a598d0bSHerbert Xu 
480*2a598d0bSHerbert Xu 				/* Possible optimization:
481*2a598d0bSHerbert Xu 				 * if (r == 0
482*2a598d0bSHerbert Xu 				 * && divisor_limb > ((n1 << normalization_steps)
483*2a598d0bSHerbert Xu 				 *		   | (dividend_ptr[dividend_size - 2] >> ...)))
484*2a598d0bSHerbert Xu 				 * ...one division less...
485*2a598d0bSHerbert Xu 				 */
486*2a598d0bSHerbert Xu 				for (i = dividend_size - 2; i >= 0; i--) {
487*2a598d0bSHerbert Xu 					n0 = dividend_ptr[i];
488*2a598d0bSHerbert Xu 					udiv_qrnnd(quot_ptr[i + 1], r, r,
489*2a598d0bSHerbert Xu 						((n1 << normalization_steps)
490*2a598d0bSHerbert Xu 						 | (n0 >> (BITS_PER_MPI_LIMB - normalization_steps))),
491*2a598d0bSHerbert Xu 						divisor_limb);
492*2a598d0bSHerbert Xu 					n1 = n0;
493*2a598d0bSHerbert Xu 				}
494*2a598d0bSHerbert Xu 				udiv_qrnnd(quot_ptr[0], r, r,
495*2a598d0bSHerbert Xu 						n1 << normalization_steps,
496*2a598d0bSHerbert Xu 						divisor_limb);
497*2a598d0bSHerbert Xu 				return r >> normalization_steps;
498*2a598d0bSHerbert Xu 			}
499*2a598d0bSHerbert Xu 		}
500*2a598d0bSHerbert Xu 		/* No normalization needed, either because udiv_qrnnd doesn't require
501*2a598d0bSHerbert Xu 		 * it, or because DIVISOR_LIMB is already normalized.
502*2a598d0bSHerbert Xu 		 */
503*2a598d0bSHerbert Xu 		i = dividend_size - 1;
504*2a598d0bSHerbert Xu 		r = dividend_ptr[i];
505*2a598d0bSHerbert Xu 
506*2a598d0bSHerbert Xu 		if (r >= divisor_limb)
507*2a598d0bSHerbert Xu 			r = 0;
508*2a598d0bSHerbert Xu 		else
509*2a598d0bSHerbert Xu 			quot_ptr[i--] = 0;
510*2a598d0bSHerbert Xu 
511*2a598d0bSHerbert Xu 		for (; i >= 0; i--) {
512*2a598d0bSHerbert Xu 			n0 = dividend_ptr[i];
513*2a598d0bSHerbert Xu 			udiv_qrnnd(quot_ptr[i], r, r, n0, divisor_limb);
514*2a598d0bSHerbert Xu 		}
515*2a598d0bSHerbert Xu 		return r;
516*2a598d0bSHerbert Xu 	}
517*2a598d0bSHerbert Xu }
518