xref: /rk3399_rockchip-uboot/lib/avb/libavb/avb_sha256.c (revision 37a7bc39c0a3beca986e8c1c85d1dd6b9921e313)
1*37a7bc39SJason Zhu /* SHA-256 and SHA-512 implementation based on code by Oliver Gay
2*37a7bc39SJason Zhu  * <olivier.gay@a3.epfl.ch> under a BSD-style license. See below.
3*37a7bc39SJason Zhu  */
4*37a7bc39SJason Zhu 
5*37a7bc39SJason Zhu /*
6*37a7bc39SJason Zhu  * FIPS 180-2 SHA-224/256/384/512 implementation
7*37a7bc39SJason Zhu  * Last update: 02/02/2007
8*37a7bc39SJason Zhu  * Issue date:  04/30/2005
9*37a7bc39SJason Zhu  *
10*37a7bc39SJason Zhu  * Copyright (C) 2005, 2007 Olivier Gay <olivier.gay@a3.epfl.ch>
11*37a7bc39SJason Zhu  * All rights reserved.
12*37a7bc39SJason Zhu  *
13*37a7bc39SJason Zhu  * Redistribution and use in source and binary forms, with or without
14*37a7bc39SJason Zhu  * modification, are permitted provided that the following conditions
15*37a7bc39SJason Zhu  * are met:
16*37a7bc39SJason Zhu  * 1. Redistributions of source code must retain the above copyright
17*37a7bc39SJason Zhu  *    notice, this list of conditions and the following disclaimer.
18*37a7bc39SJason Zhu  * 2. Redistributions in binary form must reproduce the above copyright
19*37a7bc39SJason Zhu  *    notice, this list of conditions and the following disclaimer in the
20*37a7bc39SJason Zhu  *    documentation and/or other materials provided with the distribution.
21*37a7bc39SJason Zhu  * 3. Neither the name of the project nor the names of its contributors
22*37a7bc39SJason Zhu  *    may be used to endorse or promote products derived from this software
23*37a7bc39SJason Zhu  *    without specific prior written permission.
24*37a7bc39SJason Zhu  *
25*37a7bc39SJason Zhu  * THIS SOFTWARE IS PROVIDED BY THE PROJECT AND CONTRIBUTORS ``AS IS'' AND
26*37a7bc39SJason Zhu  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
27*37a7bc39SJason Zhu  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
28*37a7bc39SJason Zhu  * ARE DISCLAIMED.  IN NO EVENT SHALL THE PROJECT OR CONTRIBUTORS BE LIABLE
29*37a7bc39SJason Zhu  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
30*37a7bc39SJason Zhu  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
31*37a7bc39SJason Zhu  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
32*37a7bc39SJason Zhu  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
33*37a7bc39SJason Zhu  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
34*37a7bc39SJason Zhu  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
35*37a7bc39SJason Zhu  * SUCH DAMAGE.
36*37a7bc39SJason Zhu  */
37*37a7bc39SJason Zhu 
38*37a7bc39SJason Zhu #include <android_avb/avb_sha.h>
39*37a7bc39SJason Zhu 
40*37a7bc39SJason Zhu #define SHFR(x, n) (x >> n)
41*37a7bc39SJason Zhu #define ROTR(x, n) ((x >> n) | (x << ((sizeof(x) << 3) - n)))
42*37a7bc39SJason Zhu #define ROTL(x, n) ((x << n) | (x >> ((sizeof(x) << 3) - n)))
43*37a7bc39SJason Zhu #define CH(x, y, z) ((x & y) ^ (~x & z))
44*37a7bc39SJason Zhu #define MAJ(x, y, z) ((x & y) ^ (x & z) ^ (y & z))
45*37a7bc39SJason Zhu 
46*37a7bc39SJason Zhu #define SHA256_F1(x) (ROTR(x, 2) ^ ROTR(x, 13) ^ ROTR(x, 22))
47*37a7bc39SJason Zhu #define SHA256_F2(x) (ROTR(x, 6) ^ ROTR(x, 11) ^ ROTR(x, 25))
48*37a7bc39SJason Zhu #define SHA256_F3(x) (ROTR(x, 7) ^ ROTR(x, 18) ^ SHFR(x, 3))
49*37a7bc39SJason Zhu #define SHA256_F4(x) (ROTR(x, 17) ^ ROTR(x, 19) ^ SHFR(x, 10))
50*37a7bc39SJason Zhu 
51*37a7bc39SJason Zhu #define UNPACK32(x, str)                 \
52*37a7bc39SJason Zhu   {                                      \
53*37a7bc39SJason Zhu     *((str) + 3) = (uint8_t)((x));       \
54*37a7bc39SJason Zhu     *((str) + 2) = (uint8_t)((x) >> 8);  \
55*37a7bc39SJason Zhu     *((str) + 1) = (uint8_t)((x) >> 16); \
56*37a7bc39SJason Zhu     *((str) + 0) = (uint8_t)((x) >> 24); \
57*37a7bc39SJason Zhu   }
58*37a7bc39SJason Zhu 
59*37a7bc39SJason Zhu #define PACK32(str, x)                                                    \
60*37a7bc39SJason Zhu   {                                                                       \
61*37a7bc39SJason Zhu     *(x) = ((uint32_t) * ((str) + 3)) | ((uint32_t) * ((str) + 2) << 8) | \
62*37a7bc39SJason Zhu            ((uint32_t) * ((str) + 1) << 16) |                             \
63*37a7bc39SJason Zhu            ((uint32_t) * ((str) + 0) << 24);                              \
64*37a7bc39SJason Zhu   }
65*37a7bc39SJason Zhu 
66*37a7bc39SJason Zhu /* Macros used for loops unrolling */
67*37a7bc39SJason Zhu 
68*37a7bc39SJason Zhu #define SHA256_SCR(i) \
69*37a7bc39SJason Zhu   { w[i] = SHA256_F4(w[i - 2]) + w[i - 7] + SHA256_F3(w[i - 15]) + w[i - 16]; }
70*37a7bc39SJason Zhu 
71*37a7bc39SJason Zhu #define SHA256_EXP(a, b, c, d, e, f, g, h, j)                               \
72*37a7bc39SJason Zhu   {                                                                         \
73*37a7bc39SJason Zhu     t1 = wv[h] + SHA256_F2(wv[e]) + CH(wv[e], wv[f], wv[g]) + sha256_k[j] + \
74*37a7bc39SJason Zhu          w[j];                                                              \
75*37a7bc39SJason Zhu     t2 = SHA256_F1(wv[a]) + MAJ(wv[a], wv[b], wv[c]);                       \
76*37a7bc39SJason Zhu     wv[d] += t1;                                                            \
77*37a7bc39SJason Zhu     wv[h] = t1 + t2;                                                        \
78*37a7bc39SJason Zhu   }
79*37a7bc39SJason Zhu 
80*37a7bc39SJason Zhu static const uint32_t sha256_h0[8] = {0x6a09e667,
81*37a7bc39SJason Zhu                                       0xbb67ae85,
82*37a7bc39SJason Zhu                                       0x3c6ef372,
83*37a7bc39SJason Zhu                                       0xa54ff53a,
84*37a7bc39SJason Zhu                                       0x510e527f,
85*37a7bc39SJason Zhu                                       0x9b05688c,
86*37a7bc39SJason Zhu                                       0x1f83d9ab,
87*37a7bc39SJason Zhu                                       0x5be0cd19};
88*37a7bc39SJason Zhu 
89*37a7bc39SJason Zhu static const uint32_t sha256_k[64] = {
90*37a7bc39SJason Zhu     0x428a2f98, 0x71374491, 0xb5c0fbcf, 0xe9b5dba5, 0x3956c25b, 0x59f111f1,
91*37a7bc39SJason Zhu     0x923f82a4, 0xab1c5ed5, 0xd807aa98, 0x12835b01, 0x243185be, 0x550c7dc3,
92*37a7bc39SJason Zhu     0x72be5d74, 0x80deb1fe, 0x9bdc06a7, 0xc19bf174, 0xe49b69c1, 0xefbe4786,
93*37a7bc39SJason Zhu     0x0fc19dc6, 0x240ca1cc, 0x2de92c6f, 0x4a7484aa, 0x5cb0a9dc, 0x76f988da,
94*37a7bc39SJason Zhu     0x983e5152, 0xa831c66d, 0xb00327c8, 0xbf597fc7, 0xc6e00bf3, 0xd5a79147,
95*37a7bc39SJason Zhu     0x06ca6351, 0x14292967, 0x27b70a85, 0x2e1b2138, 0x4d2c6dfc, 0x53380d13,
96*37a7bc39SJason Zhu     0x650a7354, 0x766a0abb, 0x81c2c92e, 0x92722c85, 0xa2bfe8a1, 0xa81a664b,
97*37a7bc39SJason Zhu     0xc24b8b70, 0xc76c51a3, 0xd192e819, 0xd6990624, 0xf40e3585, 0x106aa070,
98*37a7bc39SJason Zhu     0x19a4c116, 0x1e376c08, 0x2748774c, 0x34b0bcb5, 0x391c0cb3, 0x4ed8aa4a,
99*37a7bc39SJason Zhu     0x5b9cca4f, 0x682e6ff3, 0x748f82ee, 0x78a5636f, 0x84c87814, 0x8cc70208,
100*37a7bc39SJason Zhu     0x90befffa, 0xa4506ceb, 0xbef9a3f7, 0xc67178f2};
101*37a7bc39SJason Zhu 
102*37a7bc39SJason Zhu /* SHA-256 implementation */
103*37a7bc39SJason Zhu void avb_sha256_init(AvbSHA256Ctx* ctx) {
104*37a7bc39SJason Zhu #ifndef UNROLL_LOOPS
105*37a7bc39SJason Zhu   int i;
106*37a7bc39SJason Zhu   for (i = 0; i < 8; i++) {
107*37a7bc39SJason Zhu     ctx->h[i] = sha256_h0[i];
108*37a7bc39SJason Zhu   }
109*37a7bc39SJason Zhu #else
110*37a7bc39SJason Zhu   ctx->h[0] = sha256_h0[0];
111*37a7bc39SJason Zhu   ctx->h[1] = sha256_h0[1];
112*37a7bc39SJason Zhu   ctx->h[2] = sha256_h0[2];
113*37a7bc39SJason Zhu   ctx->h[3] = sha256_h0[3];
114*37a7bc39SJason Zhu   ctx->h[4] = sha256_h0[4];
115*37a7bc39SJason Zhu   ctx->h[5] = sha256_h0[5];
116*37a7bc39SJason Zhu   ctx->h[6] = sha256_h0[6];
117*37a7bc39SJason Zhu   ctx->h[7] = sha256_h0[7];
118*37a7bc39SJason Zhu #endif /* !UNROLL_LOOPS */
119*37a7bc39SJason Zhu 
120*37a7bc39SJason Zhu   ctx->len = 0;
121*37a7bc39SJason Zhu   ctx->tot_len = 0;
122*37a7bc39SJason Zhu }
123*37a7bc39SJason Zhu 
124*37a7bc39SJason Zhu static void SHA256_transform(AvbSHA256Ctx* ctx,
125*37a7bc39SJason Zhu                              const uint8_t* message,
126*37a7bc39SJason Zhu                              unsigned int block_nb) {
127*37a7bc39SJason Zhu   uint32_t w[64];
128*37a7bc39SJason Zhu   uint32_t wv[8];
129*37a7bc39SJason Zhu   uint32_t t1, t2;
130*37a7bc39SJason Zhu   const unsigned char* sub_block;
131*37a7bc39SJason Zhu   int i;
132*37a7bc39SJason Zhu 
133*37a7bc39SJason Zhu #ifndef UNROLL_LOOPS
134*37a7bc39SJason Zhu   int j;
135*37a7bc39SJason Zhu #endif
136*37a7bc39SJason Zhu 
137*37a7bc39SJason Zhu   for (i = 0; i < (int)block_nb; i++) {
138*37a7bc39SJason Zhu     sub_block = message + (i << 6);
139*37a7bc39SJason Zhu 
140*37a7bc39SJason Zhu #ifndef UNROLL_LOOPS
141*37a7bc39SJason Zhu     for (j = 0; j < 16; j++) {
142*37a7bc39SJason Zhu       PACK32(&sub_block[j << 2], &w[j]);
143*37a7bc39SJason Zhu     }
144*37a7bc39SJason Zhu 
145*37a7bc39SJason Zhu     for (j = 16; j < 64; j++) {
146*37a7bc39SJason Zhu       SHA256_SCR(j);
147*37a7bc39SJason Zhu     }
148*37a7bc39SJason Zhu 
149*37a7bc39SJason Zhu     for (j = 0; j < 8; j++) {
150*37a7bc39SJason Zhu       wv[j] = ctx->h[j];
151*37a7bc39SJason Zhu     }
152*37a7bc39SJason Zhu 
153*37a7bc39SJason Zhu     for (j = 0; j < 64; j++) {
154*37a7bc39SJason Zhu       t1 = wv[7] + SHA256_F2(wv[4]) + CH(wv[4], wv[5], wv[6]) + sha256_k[j] +
155*37a7bc39SJason Zhu            w[j];
156*37a7bc39SJason Zhu       t2 = SHA256_F1(wv[0]) + MAJ(wv[0], wv[1], wv[2]);
157*37a7bc39SJason Zhu       wv[7] = wv[6];
158*37a7bc39SJason Zhu       wv[6] = wv[5];
159*37a7bc39SJason Zhu       wv[5] = wv[4];
160*37a7bc39SJason Zhu       wv[4] = wv[3] + t1;
161*37a7bc39SJason Zhu       wv[3] = wv[2];
162*37a7bc39SJason Zhu       wv[2] = wv[1];
163*37a7bc39SJason Zhu       wv[1] = wv[0];
164*37a7bc39SJason Zhu       wv[0] = t1 + t2;
165*37a7bc39SJason Zhu     }
166*37a7bc39SJason Zhu 
167*37a7bc39SJason Zhu     for (j = 0; j < 8; j++) {
168*37a7bc39SJason Zhu       ctx->h[j] += wv[j];
169*37a7bc39SJason Zhu     }
170*37a7bc39SJason Zhu #else
171*37a7bc39SJason Zhu     PACK32(&sub_block[0], &w[0]);
172*37a7bc39SJason Zhu     PACK32(&sub_block[4], &w[1]);
173*37a7bc39SJason Zhu     PACK32(&sub_block[8], &w[2]);
174*37a7bc39SJason Zhu     PACK32(&sub_block[12], &w[3]);
175*37a7bc39SJason Zhu     PACK32(&sub_block[16], &w[4]);
176*37a7bc39SJason Zhu     PACK32(&sub_block[20], &w[5]);
177*37a7bc39SJason Zhu     PACK32(&sub_block[24], &w[6]);
178*37a7bc39SJason Zhu     PACK32(&sub_block[28], &w[7]);
179*37a7bc39SJason Zhu     PACK32(&sub_block[32], &w[8]);
180*37a7bc39SJason Zhu     PACK32(&sub_block[36], &w[9]);
181*37a7bc39SJason Zhu     PACK32(&sub_block[40], &w[10]);
182*37a7bc39SJason Zhu     PACK32(&sub_block[44], &w[11]);
183*37a7bc39SJason Zhu     PACK32(&sub_block[48], &w[12]);
184*37a7bc39SJason Zhu     PACK32(&sub_block[52], &w[13]);
185*37a7bc39SJason Zhu     PACK32(&sub_block[56], &w[14]);
186*37a7bc39SJason Zhu     PACK32(&sub_block[60], &w[15]);
187*37a7bc39SJason Zhu 
188*37a7bc39SJason Zhu     SHA256_SCR(16);
189*37a7bc39SJason Zhu     SHA256_SCR(17);
190*37a7bc39SJason Zhu     SHA256_SCR(18);
191*37a7bc39SJason Zhu     SHA256_SCR(19);
192*37a7bc39SJason Zhu     SHA256_SCR(20);
193*37a7bc39SJason Zhu     SHA256_SCR(21);
194*37a7bc39SJason Zhu     SHA256_SCR(22);
195*37a7bc39SJason Zhu     SHA256_SCR(23);
196*37a7bc39SJason Zhu     SHA256_SCR(24);
197*37a7bc39SJason Zhu     SHA256_SCR(25);
198*37a7bc39SJason Zhu     SHA256_SCR(26);
199*37a7bc39SJason Zhu     SHA256_SCR(27);
200*37a7bc39SJason Zhu     SHA256_SCR(28);
201*37a7bc39SJason Zhu     SHA256_SCR(29);
202*37a7bc39SJason Zhu     SHA256_SCR(30);
203*37a7bc39SJason Zhu     SHA256_SCR(31);
204*37a7bc39SJason Zhu     SHA256_SCR(32);
205*37a7bc39SJason Zhu     SHA256_SCR(33);
206*37a7bc39SJason Zhu     SHA256_SCR(34);
207*37a7bc39SJason Zhu     SHA256_SCR(35);
208*37a7bc39SJason Zhu     SHA256_SCR(36);
209*37a7bc39SJason Zhu     SHA256_SCR(37);
210*37a7bc39SJason Zhu     SHA256_SCR(38);
211*37a7bc39SJason Zhu     SHA256_SCR(39);
212*37a7bc39SJason Zhu     SHA256_SCR(40);
213*37a7bc39SJason Zhu     SHA256_SCR(41);
214*37a7bc39SJason Zhu     SHA256_SCR(42);
215*37a7bc39SJason Zhu     SHA256_SCR(43);
216*37a7bc39SJason Zhu     SHA256_SCR(44);
217*37a7bc39SJason Zhu     SHA256_SCR(45);
218*37a7bc39SJason Zhu     SHA256_SCR(46);
219*37a7bc39SJason Zhu     SHA256_SCR(47);
220*37a7bc39SJason Zhu     SHA256_SCR(48);
221*37a7bc39SJason Zhu     SHA256_SCR(49);
222*37a7bc39SJason Zhu     SHA256_SCR(50);
223*37a7bc39SJason Zhu     SHA256_SCR(51);
224*37a7bc39SJason Zhu     SHA256_SCR(52);
225*37a7bc39SJason Zhu     SHA256_SCR(53);
226*37a7bc39SJason Zhu     SHA256_SCR(54);
227*37a7bc39SJason Zhu     SHA256_SCR(55);
228*37a7bc39SJason Zhu     SHA256_SCR(56);
229*37a7bc39SJason Zhu     SHA256_SCR(57);
230*37a7bc39SJason Zhu     SHA256_SCR(58);
231*37a7bc39SJason Zhu     SHA256_SCR(59);
232*37a7bc39SJason Zhu     SHA256_SCR(60);
233*37a7bc39SJason Zhu     SHA256_SCR(61);
234*37a7bc39SJason Zhu     SHA256_SCR(62);
235*37a7bc39SJason Zhu     SHA256_SCR(63);
236*37a7bc39SJason Zhu 
237*37a7bc39SJason Zhu     wv[0] = ctx->h[0];
238*37a7bc39SJason Zhu     wv[1] = ctx->h[1];
239*37a7bc39SJason Zhu     wv[2] = ctx->h[2];
240*37a7bc39SJason Zhu     wv[3] = ctx->h[3];
241*37a7bc39SJason Zhu     wv[4] = ctx->h[4];
242*37a7bc39SJason Zhu     wv[5] = ctx->h[5];
243*37a7bc39SJason Zhu     wv[6] = ctx->h[6];
244*37a7bc39SJason Zhu     wv[7] = ctx->h[7];
245*37a7bc39SJason Zhu 
246*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 0);
247*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 1);
248*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 2);
249*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 3);
250*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 4);
251*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 5);
252*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 6);
253*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 7);
254*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 8);
255*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 9);
256*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 10);
257*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 11);
258*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 12);
259*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 13);
260*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 14);
261*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 15);
262*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 16);
263*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 17);
264*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 18);
265*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 19);
266*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 20);
267*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 21);
268*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 22);
269*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 23);
270*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 24);
271*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 25);
272*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 26);
273*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 27);
274*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 28);
275*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 29);
276*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 30);
277*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 31);
278*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 32);
279*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 33);
280*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 34);
281*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 35);
282*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 36);
283*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 37);
284*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 38);
285*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 39);
286*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 40);
287*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 41);
288*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 42);
289*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 43);
290*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 44);
291*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 45);
292*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 46);
293*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 47);
294*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 48);
295*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 49);
296*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 50);
297*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 51);
298*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 52);
299*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 53);
300*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 54);
301*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 55);
302*37a7bc39SJason Zhu     SHA256_EXP(0, 1, 2, 3, 4, 5, 6, 7, 56);
303*37a7bc39SJason Zhu     SHA256_EXP(7, 0, 1, 2, 3, 4, 5, 6, 57);
304*37a7bc39SJason Zhu     SHA256_EXP(6, 7, 0, 1, 2, 3, 4, 5, 58);
305*37a7bc39SJason Zhu     SHA256_EXP(5, 6, 7, 0, 1, 2, 3, 4, 59);
306*37a7bc39SJason Zhu     SHA256_EXP(4, 5, 6, 7, 0, 1, 2, 3, 60);
307*37a7bc39SJason Zhu     SHA256_EXP(3, 4, 5, 6, 7, 0, 1, 2, 61);
308*37a7bc39SJason Zhu     SHA256_EXP(2, 3, 4, 5, 6, 7, 0, 1, 62);
309*37a7bc39SJason Zhu     SHA256_EXP(1, 2, 3, 4, 5, 6, 7, 0, 63);
310*37a7bc39SJason Zhu 
311*37a7bc39SJason Zhu     ctx->h[0] += wv[0];
312*37a7bc39SJason Zhu     ctx->h[1] += wv[1];
313*37a7bc39SJason Zhu     ctx->h[2] += wv[2];
314*37a7bc39SJason Zhu     ctx->h[3] += wv[3];
315*37a7bc39SJason Zhu     ctx->h[4] += wv[4];
316*37a7bc39SJason Zhu     ctx->h[5] += wv[5];
317*37a7bc39SJason Zhu     ctx->h[6] += wv[6];
318*37a7bc39SJason Zhu     ctx->h[7] += wv[7];
319*37a7bc39SJason Zhu #endif /* !UNROLL_LOOPS */
320*37a7bc39SJason Zhu   }
321*37a7bc39SJason Zhu }
322*37a7bc39SJason Zhu 
323*37a7bc39SJason Zhu void avb_sha256_update(AvbSHA256Ctx* ctx, const uint8_t* data, uint32_t len) {
324*37a7bc39SJason Zhu   unsigned int block_nb;
325*37a7bc39SJason Zhu   unsigned int new_len, rem_len, tmp_len;
326*37a7bc39SJason Zhu   const uint8_t* shifted_data;
327*37a7bc39SJason Zhu 
328*37a7bc39SJason Zhu   tmp_len = AVB_SHA256_BLOCK_SIZE - ctx->len;
329*37a7bc39SJason Zhu   rem_len = len < tmp_len ? len : tmp_len;
330*37a7bc39SJason Zhu 
331*37a7bc39SJason Zhu   avb_memcpy(&ctx->block[ctx->len], data, rem_len);
332*37a7bc39SJason Zhu 
333*37a7bc39SJason Zhu   if (ctx->len + len < AVB_SHA256_BLOCK_SIZE) {
334*37a7bc39SJason Zhu     ctx->len += len;
335*37a7bc39SJason Zhu     return;
336*37a7bc39SJason Zhu   }
337*37a7bc39SJason Zhu 
338*37a7bc39SJason Zhu   new_len = len - rem_len;
339*37a7bc39SJason Zhu   block_nb = new_len / AVB_SHA256_BLOCK_SIZE;
340*37a7bc39SJason Zhu 
341*37a7bc39SJason Zhu   shifted_data = data + rem_len;
342*37a7bc39SJason Zhu 
343*37a7bc39SJason Zhu   SHA256_transform(ctx, ctx->block, 1);
344*37a7bc39SJason Zhu   SHA256_transform(ctx, shifted_data, block_nb);
345*37a7bc39SJason Zhu 
346*37a7bc39SJason Zhu   rem_len = new_len % AVB_SHA256_BLOCK_SIZE;
347*37a7bc39SJason Zhu 
348*37a7bc39SJason Zhu   avb_memcpy(ctx->block, &shifted_data[block_nb << 6], rem_len);
349*37a7bc39SJason Zhu 
350*37a7bc39SJason Zhu   ctx->len = rem_len;
351*37a7bc39SJason Zhu   ctx->tot_len += (block_nb + 1) << 6;
352*37a7bc39SJason Zhu }
353*37a7bc39SJason Zhu 
354*37a7bc39SJason Zhu uint8_t* avb_sha256_final(AvbSHA256Ctx* ctx) {
355*37a7bc39SJason Zhu   unsigned int block_nb;
356*37a7bc39SJason Zhu   unsigned int pm_len;
357*37a7bc39SJason Zhu   unsigned int len_b;
358*37a7bc39SJason Zhu #ifndef UNROLL_LOOPS
359*37a7bc39SJason Zhu   int i;
360*37a7bc39SJason Zhu #endif
361*37a7bc39SJason Zhu 
362*37a7bc39SJason Zhu   block_nb =
363*37a7bc39SJason Zhu       (1 + ((AVB_SHA256_BLOCK_SIZE - 9) < (ctx->len % AVB_SHA256_BLOCK_SIZE)));
364*37a7bc39SJason Zhu 
365*37a7bc39SJason Zhu   len_b = (ctx->tot_len + ctx->len) << 3;
366*37a7bc39SJason Zhu   pm_len = block_nb << 6;
367*37a7bc39SJason Zhu 
368*37a7bc39SJason Zhu   avb_memset(ctx->block + ctx->len, 0, pm_len - ctx->len);
369*37a7bc39SJason Zhu   ctx->block[ctx->len] = 0x80;
370*37a7bc39SJason Zhu   UNPACK32(len_b, ctx->block + pm_len - 4);
371*37a7bc39SJason Zhu 
372*37a7bc39SJason Zhu   SHA256_transform(ctx, ctx->block, block_nb);
373*37a7bc39SJason Zhu 
374*37a7bc39SJason Zhu #ifndef UNROLL_LOOPS
375*37a7bc39SJason Zhu   for (i = 0; i < 8; i++) {
376*37a7bc39SJason Zhu     UNPACK32(ctx->h[i], &ctx->buf[i << 2]);
377*37a7bc39SJason Zhu   }
378*37a7bc39SJason Zhu #else
379*37a7bc39SJason Zhu   UNPACK32(ctx->h[0], &ctx->buf[0]);
380*37a7bc39SJason Zhu   UNPACK32(ctx->h[1], &ctx->buf[4]);
381*37a7bc39SJason Zhu   UNPACK32(ctx->h[2], &ctx->buf[8]);
382*37a7bc39SJason Zhu   UNPACK32(ctx->h[3], &ctx->buf[12]);
383*37a7bc39SJason Zhu   UNPACK32(ctx->h[4], &ctx->buf[16]);
384*37a7bc39SJason Zhu   UNPACK32(ctx->h[5], &ctx->buf[20]);
385*37a7bc39SJason Zhu   UNPACK32(ctx->h[6], &ctx->buf[24]);
386*37a7bc39SJason Zhu   UNPACK32(ctx->h[7], &ctx->buf[28]);
387*37a7bc39SJason Zhu #endif /* !UNROLL_LOOPS */
388*37a7bc39SJason Zhu 
389*37a7bc39SJason Zhu   return ctx->buf;
390*37a7bc39SJason Zhu }
391