xref: /optee_os/ldelf/ta_elf.c (revision d2a6dea7634010985e9ce2f140aa0a330af596c9)
17509ff7cSJens Wiklander // SPDX-License-Identifier: BSD-2-Clause
27509ff7cSJens Wiklander /*
37509ff7cSJens Wiklander  * Copyright (c) 2019, Linaro Limited
47509ff7cSJens Wiklander  */
57509ff7cSJens Wiklander 
67509ff7cSJens Wiklander #include <assert.h>
77509ff7cSJens Wiklander #include <ctype.h>
87509ff7cSJens Wiklander #include <elf32.h>
97509ff7cSJens Wiklander #include <elf64.h>
107509ff7cSJens Wiklander #include <elf_common.h>
1165137432SJens Wiklander #include <ldelf.h>
127509ff7cSJens Wiklander #include <pta_system.h>
1365137432SJens Wiklander #include <stdio.h>
147509ff7cSJens Wiklander #include <stdlib.h>
157509ff7cSJens Wiklander #include <string_ext.h>
167509ff7cSJens Wiklander #include <string.h>
177509ff7cSJens Wiklander #include <tee_api_types.h>
18791ee55cSJerome Forissier #include <tee_internal_api_extensions.h>
197509ff7cSJens Wiklander #include <user_ta_header.h>
206720dd49SJens Wiklander #include <utee_syscalls.h>
21bc1d13c1SJens Wiklander #include <util.h>
227509ff7cSJens Wiklander 
237509ff7cSJens Wiklander #include "sys.h"
247509ff7cSJens Wiklander #include "ta_elf.h"
250242833aSJens Wiklander #include "unwind.h"
267509ff7cSJens Wiklander 
2765137432SJens Wiklander static vaddr_t ta_stack;
280242833aSJens Wiklander static vaddr_t ta_stack_size;
2965137432SJens Wiklander 
307509ff7cSJens Wiklander struct ta_elf_queue main_elf_queue = TAILQ_HEAD_INITIALIZER(main_elf_queue);
317509ff7cSJens Wiklander 
32ebef121cSJerome Forissier static struct ta_elf *queue_elf_helper(const TEE_UUID *uuid)
337509ff7cSJens Wiklander {
34ebef121cSJerome Forissier 	struct ta_elf *elf = calloc(1, sizeof(*elf));
357509ff7cSJens Wiklander 
367509ff7cSJens Wiklander 	if (!elf)
37ebef121cSJerome Forissier 		return NULL;
387509ff7cSJens Wiklander 
397509ff7cSJens Wiklander 	TAILQ_INIT(&elf->segs);
407509ff7cSJens Wiklander 
417509ff7cSJens Wiklander 	elf->uuid = *uuid;
427509ff7cSJens Wiklander 	TAILQ_INSERT_TAIL(&main_elf_queue, elf, link);
437509ff7cSJens Wiklander 	return elf;
447509ff7cSJens Wiklander }
457509ff7cSJens Wiklander 
46ebef121cSJerome Forissier static struct ta_elf *queue_elf(const TEE_UUID *uuid)
47ebef121cSJerome Forissier {
48ebef121cSJerome Forissier 	struct ta_elf *elf = ta_elf_find_elf(uuid);
49ebef121cSJerome Forissier 
50ebef121cSJerome Forissier 	if (elf)
51ebef121cSJerome Forissier 		return NULL;
52ebef121cSJerome Forissier 
53ebef121cSJerome Forissier 	elf = queue_elf_helper(uuid);
54ebef121cSJerome Forissier 	if (!elf)
55ebef121cSJerome Forissier 		err(TEE_ERROR_OUT_OF_MEMORY, "queue_elf_helper");
56ebef121cSJerome Forissier 
57ebef121cSJerome Forissier 	return elf;
58ebef121cSJerome Forissier }
59ebef121cSJerome Forissier 
60ebef121cSJerome Forissier struct ta_elf *ta_elf_find_elf(const TEE_UUID *uuid)
61ebef121cSJerome Forissier {
62ebef121cSJerome Forissier 	struct ta_elf *elf = NULL;
63ebef121cSJerome Forissier 
64ebef121cSJerome Forissier 	TAILQ_FOREACH(elf, &main_elf_queue, link)
65ebef121cSJerome Forissier 		if (!memcmp(uuid, &elf->uuid, sizeof(*uuid)))
66ebef121cSJerome Forissier 			return elf;
67ebef121cSJerome Forissier 
68ebef121cSJerome Forissier 	return NULL;
69ebef121cSJerome Forissier }
70ebef121cSJerome Forissier 
717509ff7cSJens Wiklander static TEE_Result e32_parse_ehdr(struct ta_elf *elf, Elf32_Ehdr *ehdr)
727509ff7cSJens Wiklander {
737509ff7cSJens Wiklander 	if (ehdr->e_ident[EI_VERSION] != EV_CURRENT ||
747509ff7cSJens Wiklander 	    ehdr->e_ident[EI_CLASS] != ELFCLASS32 ||
757509ff7cSJens Wiklander 	    ehdr->e_ident[EI_DATA] != ELFDATA2LSB ||
767509ff7cSJens Wiklander 	    ehdr->e_ident[EI_OSABI] != ELFOSABI_NONE ||
777509ff7cSJens Wiklander 	    ehdr->e_type != ET_DYN || ehdr->e_machine != EM_ARM ||
787509ff7cSJens Wiklander 	    (ehdr->e_flags & EF_ARM_ABIMASK) != EF_ARM_ABI_VERSION ||
797509ff7cSJens Wiklander #ifndef CFG_WITH_VFP
807509ff7cSJens Wiklander 	    (ehdr->e_flags & EF_ARM_ABI_FLOAT_HARD) ||
817509ff7cSJens Wiklander #endif
827509ff7cSJens Wiklander 	    ehdr->e_phentsize != sizeof(Elf32_Phdr) ||
837509ff7cSJens Wiklander 	    ehdr->e_shentsize != sizeof(Elf32_Shdr))
847509ff7cSJens Wiklander 		return TEE_ERROR_BAD_FORMAT;
857509ff7cSJens Wiklander 
867509ff7cSJens Wiklander 	elf->is_32bit = true;
877509ff7cSJens Wiklander 	elf->e_entry = ehdr->e_entry;
887509ff7cSJens Wiklander 	elf->e_phoff = ehdr->e_phoff;
897509ff7cSJens Wiklander 	elf->e_shoff = ehdr->e_shoff;
907509ff7cSJens Wiklander 	elf->e_phnum = ehdr->e_phnum;
917509ff7cSJens Wiklander 	elf->e_shnum = ehdr->e_shnum;
927509ff7cSJens Wiklander 	elf->e_phentsize = ehdr->e_phentsize;
937509ff7cSJens Wiklander 	elf->e_shentsize = ehdr->e_shentsize;
947509ff7cSJens Wiklander 
957509ff7cSJens Wiklander 	return TEE_SUCCESS;
967509ff7cSJens Wiklander }
977509ff7cSJens Wiklander 
987509ff7cSJens Wiklander #ifdef ARM64
997509ff7cSJens Wiklander static TEE_Result e64_parse_ehdr(struct ta_elf *elf, Elf64_Ehdr *ehdr)
1007509ff7cSJens Wiklander {
1017509ff7cSJens Wiklander 	if (ehdr->e_ident[EI_VERSION] != EV_CURRENT ||
1027509ff7cSJens Wiklander 	    ehdr->e_ident[EI_CLASS] != ELFCLASS64 ||
1037509ff7cSJens Wiklander 	    ehdr->e_ident[EI_DATA] != ELFDATA2LSB ||
1047509ff7cSJens Wiklander 	    ehdr->e_ident[EI_OSABI] != ELFOSABI_NONE ||
1057509ff7cSJens Wiklander 	    ehdr->e_type != ET_DYN || ehdr->e_machine != EM_AARCH64 ||
1067509ff7cSJens Wiklander 	    ehdr->e_flags || ehdr->e_phentsize != sizeof(Elf64_Phdr) ||
1077509ff7cSJens Wiklander 	    ehdr->e_shentsize != sizeof(Elf64_Shdr))
1087509ff7cSJens Wiklander 		return TEE_ERROR_BAD_FORMAT;
1097509ff7cSJens Wiklander 
1107509ff7cSJens Wiklander 
1117509ff7cSJens Wiklander 	elf->is_32bit = false;
1127509ff7cSJens Wiklander 	elf->e_entry = ehdr->e_entry;
1137509ff7cSJens Wiklander 	elf->e_phoff = ehdr->e_phoff;
1147509ff7cSJens Wiklander 	elf->e_shoff = ehdr->e_shoff;
1157509ff7cSJens Wiklander 	elf->e_phnum = ehdr->e_phnum;
1167509ff7cSJens Wiklander 	elf->e_shnum = ehdr->e_shnum;
1177509ff7cSJens Wiklander 	elf->e_phentsize = ehdr->e_phentsize;
1187509ff7cSJens Wiklander 	elf->e_shentsize = ehdr->e_shentsize;
1197509ff7cSJens Wiklander 
1207509ff7cSJens Wiklander 	return TEE_SUCCESS;
1217509ff7cSJens Wiklander }
1227509ff7cSJens Wiklander #else /*ARM64*/
1237509ff7cSJens Wiklander static TEE_Result e64_parse_ehdr(struct ta_elf *elf __unused,
1247509ff7cSJens Wiklander 				 Elf64_Ehdr *ehdr __unused)
1257509ff7cSJens Wiklander {
1267509ff7cSJens Wiklander 	return TEE_ERROR_NOT_SUPPORTED;
1277509ff7cSJens Wiklander }
1287509ff7cSJens Wiklander #endif /*ARM64*/
1297509ff7cSJens Wiklander 
130bc1d13c1SJens Wiklander static void check_phdr_in_range(struct ta_elf *elf, unsigned int type,
131bc1d13c1SJens Wiklander 				vaddr_t addr, size_t memsz)
132bc1d13c1SJens Wiklander {
133bc1d13c1SJens Wiklander 	vaddr_t max_addr = 0;
134bc1d13c1SJens Wiklander 
135bc1d13c1SJens Wiklander 	if (ADD_OVERFLOW(addr, memsz, &max_addr))
136bc1d13c1SJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "Program header %#x overflow", type);
137bc1d13c1SJens Wiklander 
138bc1d13c1SJens Wiklander 	/*
139bc1d13c1SJens Wiklander 	 * elf->load_addr and elf->max_addr are both using the
140bc1d13c1SJens Wiklander 	 * final virtual addresses, while this program header is
141bc1d13c1SJens Wiklander 	 * relative to 0.
142bc1d13c1SJens Wiklander 	 */
143bc1d13c1SJens Wiklander 	if (max_addr > elf->max_addr - elf->load_addr)
144bc1d13c1SJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "Program header %#x out of bounds",
145bc1d13c1SJens Wiklander 		    type);
146bc1d13c1SJens Wiklander }
147bc1d13c1SJens Wiklander 
1487509ff7cSJens Wiklander static void read_dyn(struct ta_elf *elf, vaddr_t addr,
1497509ff7cSJens Wiklander 		     size_t idx, unsigned int *tag, size_t *val)
1507509ff7cSJens Wiklander {
1517509ff7cSJens Wiklander 	if (elf->is_32bit) {
1527509ff7cSJens Wiklander 		Elf32_Dyn *dyn = (Elf32_Dyn *)(addr + elf->load_addr);
1537509ff7cSJens Wiklander 
1547509ff7cSJens Wiklander 		*tag = dyn[idx].d_tag;
1557509ff7cSJens Wiklander 		*val = dyn[idx].d_un.d_val;
1567509ff7cSJens Wiklander 	} else {
1577509ff7cSJens Wiklander 		Elf64_Dyn *dyn = (Elf64_Dyn *)(addr + elf->load_addr);
1587509ff7cSJens Wiklander 
1597509ff7cSJens Wiklander 		*tag = dyn[idx].d_tag;
1607509ff7cSJens Wiklander 		*val = dyn[idx].d_un.d_val;
1617509ff7cSJens Wiklander 	}
1627509ff7cSJens Wiklander }
1637509ff7cSJens Wiklander 
1649f392760SJerome Forissier static void save_hashtab_from_segment(struct ta_elf *elf, unsigned int type,
1659f392760SJerome Forissier 				      vaddr_t addr, size_t memsz)
1669f392760SJerome Forissier {
1679f392760SJerome Forissier 	size_t dyn_entsize = 0;
1689f392760SJerome Forissier 	size_t num_dyns = 0;
1699f392760SJerome Forissier 	size_t n = 0;
1709f392760SJerome Forissier 	unsigned int tag = 0;
1719f392760SJerome Forissier 	size_t val = 0;
1729f392760SJerome Forissier 
1739f392760SJerome Forissier 	if (type != PT_DYNAMIC)
1749f392760SJerome Forissier 		return;
1759f392760SJerome Forissier 
176bc1d13c1SJens Wiklander 	check_phdr_in_range(elf, type, addr, memsz);
177bc1d13c1SJens Wiklander 
1789f392760SJerome Forissier 	if (elf->is_32bit)
1799f392760SJerome Forissier 		dyn_entsize = sizeof(Elf32_Dyn);
1809f392760SJerome Forissier 	else
1819f392760SJerome Forissier 		dyn_entsize = sizeof(Elf64_Dyn);
1829f392760SJerome Forissier 
1839f392760SJerome Forissier 	assert(!(memsz % dyn_entsize));
1849f392760SJerome Forissier 	num_dyns = memsz / dyn_entsize;
1859f392760SJerome Forissier 
1869f392760SJerome Forissier 	for (n = 0; n < num_dyns; n++) {
1879f392760SJerome Forissier 		read_dyn(elf, addr, n, &tag, &val);
1889f392760SJerome Forissier 		if (tag == DT_HASH) {
1899f392760SJerome Forissier 			elf->hashtab = (void *)(val + elf->load_addr);
1909f392760SJerome Forissier 			break;
1919f392760SJerome Forissier 		}
1929f392760SJerome Forissier 	}
1939f392760SJerome Forissier }
1949f392760SJerome Forissier 
195ab49cb75SJens Wiklander static void check_range(struct ta_elf *elf, const char *name, const void *ptr,
196ab49cb75SJens Wiklander 			size_t sz)
197ab49cb75SJens Wiklander {
198ab49cb75SJens Wiklander 	size_t max_addr = 0;
199ab49cb75SJens Wiklander 
200ab49cb75SJens Wiklander 	if ((vaddr_t)ptr < elf->load_addr)
201ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC, "%s %p out of range", name, ptr);
202ab49cb75SJens Wiklander 
203ab49cb75SJens Wiklander 	if (ADD_OVERFLOW((vaddr_t)ptr, sz, &max_addr))
204ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC, "%s range overflow", name);
205ab49cb75SJens Wiklander 
206ab49cb75SJens Wiklander 	if (max_addr > elf->max_addr)
207ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC,
208ab49cb75SJens Wiklander 		    "%s %p..%#zx out of range", name, ptr, max_addr);
209ab49cb75SJens Wiklander }
210ab49cb75SJens Wiklander 
2114f5bc11dSJens Wiklander static void check_hashtab(struct ta_elf *elf, void *ptr, size_t num_buckets,
2124f5bc11dSJens Wiklander 			  size_t num_chains)
2134f5bc11dSJens Wiklander {
2144f5bc11dSJens Wiklander 	/*
2154f5bc11dSJens Wiklander 	 * Starting from 2 as the first two words are mandatory and hold
2164f5bc11dSJens Wiklander 	 * num_buckets and num_chains. So this function is called twice,
2174f5bc11dSJens Wiklander 	 * first to see that there's indeed room for num_buckets and
2184f5bc11dSJens Wiklander 	 * num_chains and then to see that all of it fits.
2194f5bc11dSJens Wiklander 	 * See http://www.sco.com/developers/gabi/latest/ch5.dynamic.html#hash
2204f5bc11dSJens Wiklander 	 */
2214f5bc11dSJens Wiklander 	size_t num_words = 2;
2224f5bc11dSJens Wiklander 	size_t sz = 0;
2234f5bc11dSJens Wiklander 
2244f5bc11dSJens Wiklander 	if (!ALIGNMENT_IS_OK(ptr, uint32_t))
2254f5bc11dSJens Wiklander 		err(TEE_ERROR_GENERIC, "Bad alignment of hashtab %p", ptr);
2264f5bc11dSJens Wiklander 
2274f5bc11dSJens Wiklander 	if (ADD_OVERFLOW(num_words, num_buckets, &num_words) ||
2284f5bc11dSJens Wiklander 	    ADD_OVERFLOW(num_words, num_chains, &num_words) ||
229ab49cb75SJens Wiklander 	    MUL_OVERFLOW(num_words, sizeof(uint32_t), &sz))
2304f5bc11dSJens Wiklander 		err(TEE_ERROR_GENERIC, "Hashtab overflow");
2314f5bc11dSJens Wiklander 
232ab49cb75SJens Wiklander 	check_range(elf, "Hashtab", ptr, sz);
2334f5bc11dSJens Wiklander }
2344f5bc11dSJens Wiklander 
2359f392760SJerome Forissier static void save_hashtab(struct ta_elf *elf)
2369f392760SJerome Forissier {
2374f5bc11dSJens Wiklander 	uint32_t *hashtab = NULL;
2389f392760SJerome Forissier 	size_t n = 0;
2399f392760SJerome Forissier 
2409f392760SJerome Forissier 	if (elf->is_32bit) {
2419f392760SJerome Forissier 		Elf32_Phdr *phdr = elf->phdr;
2429f392760SJerome Forissier 
2439f392760SJerome Forissier 		for (n = 0; n < elf->e_phnum; n++)
2449f392760SJerome Forissier 			save_hashtab_from_segment(elf, phdr[n].p_type,
2459f392760SJerome Forissier 						  phdr[n].p_vaddr,
2469f392760SJerome Forissier 						  phdr[n].p_memsz);
2479f392760SJerome Forissier 	} else {
2489f392760SJerome Forissier 		Elf64_Phdr *phdr = elf->phdr;
2499f392760SJerome Forissier 
2509f392760SJerome Forissier 		for (n = 0; n < elf->e_phnum; n++)
2519f392760SJerome Forissier 			save_hashtab_from_segment(elf, phdr[n].p_type,
2529f392760SJerome Forissier 						  phdr[n].p_vaddr,
2539f392760SJerome Forissier 						  phdr[n].p_memsz);
2549f392760SJerome Forissier 	}
2554f5bc11dSJens Wiklander 
2564f5bc11dSJens Wiklander 	check_hashtab(elf, elf->hashtab, 0, 0);
2574f5bc11dSJens Wiklander 	hashtab = elf->hashtab;
2584f5bc11dSJens Wiklander 	check_hashtab(elf, elf->hashtab, hashtab[0], hashtab[1]);
2599f392760SJerome Forissier }
2609f392760SJerome Forissier 
2617509ff7cSJens Wiklander static void e32_save_symtab(struct ta_elf *elf, size_t tab_idx)
2627509ff7cSJens Wiklander {
2637509ff7cSJens Wiklander 	Elf32_Shdr *shdr = elf->shdr;
2647509ff7cSJens Wiklander 	size_t str_idx = shdr[tab_idx].sh_link;
2657509ff7cSJens Wiklander 
2667509ff7cSJens Wiklander 	elf->dynsymtab = (void *)(shdr[tab_idx].sh_addr + elf->load_addr);
267ab49cb75SJens Wiklander 	if (!ALIGNMENT_IS_OK(elf->dynsymtab, Elf32_Sym))
268ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC, "Bad alignment of dynsymtab %p",
269ab49cb75SJens Wiklander 		    elf->dynsymtab);
270ab49cb75SJens Wiklander 	check_range(elf, "Dynsymtab", elf->dynsymtab, shdr[tab_idx].sh_size);
271ab49cb75SJens Wiklander 
272ab49cb75SJens Wiklander 	if (shdr[tab_idx].sh_size % sizeof(Elf32_Sym))
273ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC,
274ab49cb75SJens Wiklander 		    "Size of dynsymtab not an even multiple of Elf32_Sym");
2757509ff7cSJens Wiklander 	elf->num_dynsyms = shdr[tab_idx].sh_size / sizeof(Elf32_Sym);
2767509ff7cSJens Wiklander 
277ab49cb75SJens Wiklander 	if (str_idx >= elf->e_shnum)
278ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC, "Dynstr section index out of range");
2797509ff7cSJens Wiklander 	elf->dynstr = (void *)(shdr[str_idx].sh_addr + elf->load_addr);
280ab49cb75SJens Wiklander 	check_range(elf, "Dynstr", elf->dynstr, shdr[str_idx].sh_size);
281ab49cb75SJens Wiklander 
2827509ff7cSJens Wiklander 	elf->dynstr_size = shdr[str_idx].sh_size;
2837509ff7cSJens Wiklander }
2847509ff7cSJens Wiklander 
2857509ff7cSJens Wiklander static void e64_save_symtab(struct ta_elf *elf, size_t tab_idx)
2867509ff7cSJens Wiklander {
2877509ff7cSJens Wiklander 	Elf64_Shdr *shdr = elf->shdr;
2887509ff7cSJens Wiklander 	size_t str_idx = shdr[tab_idx].sh_link;
2897509ff7cSJens Wiklander 
2907509ff7cSJens Wiklander 	elf->dynsymtab = (void *)(vaddr_t)(shdr[tab_idx].sh_addr +
2917509ff7cSJens Wiklander 					   elf->load_addr);
292ab49cb75SJens Wiklander 
293ab49cb75SJens Wiklander 	if (!ALIGNMENT_IS_OK(elf->dynsymtab, Elf64_Sym))
294ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC, "Bad alignment of dynsymtab %p",
295ab49cb75SJens Wiklander 		    elf->dynsymtab);
296ab49cb75SJens Wiklander 	check_range(elf, "Dynsymtab", elf->dynsymtab, shdr[tab_idx].sh_size);
297ab49cb75SJens Wiklander 
298ab49cb75SJens Wiklander 	if (shdr[tab_idx].sh_size % sizeof(Elf64_Sym))
299ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC,
300ab49cb75SJens Wiklander 		    "Size of dynsymtab not an even multiple of Elf64_Sym");
3017509ff7cSJens Wiklander 	elf->num_dynsyms = shdr[tab_idx].sh_size / sizeof(Elf64_Sym);
3027509ff7cSJens Wiklander 
303ab49cb75SJens Wiklander 	if (str_idx >= elf->e_shnum)
304ab49cb75SJens Wiklander 		err(TEE_ERROR_GENERIC, "Dynstr section index out of range");
3057509ff7cSJens Wiklander 	elf->dynstr = (void *)(vaddr_t)(shdr[str_idx].sh_addr + elf->load_addr);
306ab49cb75SJens Wiklander 	check_range(elf, "Dynstr", elf->dynstr, shdr[str_idx].sh_size);
307ab49cb75SJens Wiklander 
3087509ff7cSJens Wiklander 	elf->dynstr_size = shdr[str_idx].sh_size;
3097509ff7cSJens Wiklander }
3107509ff7cSJens Wiklander 
3117509ff7cSJens Wiklander static void save_symtab(struct ta_elf *elf)
3127509ff7cSJens Wiklander {
3137509ff7cSJens Wiklander 	size_t n = 0;
3147509ff7cSJens Wiklander 
3157509ff7cSJens Wiklander 	if (elf->is_32bit) {
3167509ff7cSJens Wiklander 		Elf32_Shdr *shdr = elf->shdr;
3177509ff7cSJens Wiklander 
3187509ff7cSJens Wiklander 		for (n = 0; n < elf->e_shnum; n++) {
3197509ff7cSJens Wiklander 			if (shdr[n].sh_type == SHT_DYNSYM) {
3207509ff7cSJens Wiklander 				e32_save_symtab(elf, n);
3217509ff7cSJens Wiklander 				break;
3227509ff7cSJens Wiklander 			}
3237509ff7cSJens Wiklander 		}
3247509ff7cSJens Wiklander 	} else {
3257509ff7cSJens Wiklander 		Elf64_Shdr *shdr = elf->shdr;
3267509ff7cSJens Wiklander 
3277509ff7cSJens Wiklander 		for (n = 0; n < elf->e_shnum; n++) {
3287509ff7cSJens Wiklander 			if (shdr[n].sh_type == SHT_DYNSYM) {
3297509ff7cSJens Wiklander 				e64_save_symtab(elf, n);
3307509ff7cSJens Wiklander 				break;
3317509ff7cSJens Wiklander 			}
3327509ff7cSJens Wiklander 		}
3337509ff7cSJens Wiklander 
3347509ff7cSJens Wiklander 	}
3359f392760SJerome Forissier 
3369f392760SJerome Forissier 	save_hashtab(elf);
3377509ff7cSJens Wiklander }
3387509ff7cSJens Wiklander 
3397509ff7cSJens Wiklander static void init_elf(struct ta_elf *elf)
3407509ff7cSJens Wiklander {
3417509ff7cSJens Wiklander 	TEE_Result res = TEE_SUCCESS;
3427509ff7cSJens Wiklander 	vaddr_t va = 0;
3437509ff7cSJens Wiklander 	uint32_t flags = PTA_SYSTEM_MAP_FLAG_SHAREABLE;
344*d2a6dea7SJens Wiklander 	size_t sz = 0;
3457509ff7cSJens Wiklander 
3467509ff7cSJens Wiklander 	res = sys_open_ta_bin(&elf->uuid, &elf->handle);
3477509ff7cSJens Wiklander 	if (res)
3487509ff7cSJens Wiklander 		err(res, "sys_open_ta_bin(%pUl)", (void *)&elf->uuid);
3497509ff7cSJens Wiklander 
3507509ff7cSJens Wiklander 	/*
3517509ff7cSJens Wiklander 	 * Map it read-only executable when we're loading a library where
3527509ff7cSJens Wiklander 	 * the ELF header is included in a load segment.
3537509ff7cSJens Wiklander 	 */
3547509ff7cSJens Wiklander 	if (!elf->is_main)
3557509ff7cSJens Wiklander 		flags |= PTA_SYSTEM_MAP_FLAG_EXECUTABLE;
35688796f89SJens Wiklander 	res = sys_map_ta_bin(&va, SMALL_PAGE_SIZE, flags, elf->handle, 0, 0, 0);
3577509ff7cSJens Wiklander 	if (res)
3587509ff7cSJens Wiklander 		err(res, "sys_map_ta_bin");
3597509ff7cSJens Wiklander 	elf->ehdr_addr = va;
3607509ff7cSJens Wiklander 	if (!elf->is_main) {
3617509ff7cSJens Wiklander 		elf->load_addr = va;
3627509ff7cSJens Wiklander 		elf->max_addr = va + SMALL_PAGE_SIZE;
3637509ff7cSJens Wiklander 		elf->max_offs = SMALL_PAGE_SIZE;
3647509ff7cSJens Wiklander 	}
3657509ff7cSJens Wiklander 
3667509ff7cSJens Wiklander 	if (!IS_ELF(*(Elf32_Ehdr *)va))
3677509ff7cSJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "TA is not an ELF");
3687509ff7cSJens Wiklander 
3697509ff7cSJens Wiklander 	res = e32_parse_ehdr(elf, (void *)va);
3707509ff7cSJens Wiklander 	if (res == TEE_ERROR_BAD_FORMAT)
3717509ff7cSJens Wiklander 		res = e64_parse_ehdr(elf, (void *)va);
3727509ff7cSJens Wiklander 	if (res)
3737509ff7cSJens Wiklander 		err(res, "Cannot parse ELF");
3747509ff7cSJens Wiklander 
375*d2a6dea7SJens Wiklander 	if (MUL_OVERFLOW(elf->e_phnum, elf->e_phentsize, &sz) ||
376*d2a6dea7SJens Wiklander 	    ADD_OVERFLOW(sz, elf->e_phoff, &sz))
377*d2a6dea7SJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "Program headers size overflow");
378*d2a6dea7SJens Wiklander 
379*d2a6dea7SJens Wiklander 	if (sz > SMALL_PAGE_SIZE)
3807509ff7cSJens Wiklander 		err(TEE_ERROR_NOT_SUPPORTED, "Cannot read program headers");
3817509ff7cSJens Wiklander 
3827509ff7cSJens Wiklander 	elf->phdr = (void *)(va + elf->e_phoff);
3837509ff7cSJens Wiklander }
3847509ff7cSJens Wiklander 
3857509ff7cSJens Wiklander static size_t roundup(size_t v)
3867509ff7cSJens Wiklander {
3877509ff7cSJens Wiklander 	return ROUNDUP(v, SMALL_PAGE_SIZE);
3887509ff7cSJens Wiklander }
3897509ff7cSJens Wiklander 
3907509ff7cSJens Wiklander static size_t rounddown(size_t v)
3917509ff7cSJens Wiklander {
3927509ff7cSJens Wiklander 	return ROUNDDOWN(v, SMALL_PAGE_SIZE);
3937509ff7cSJens Wiklander }
3947509ff7cSJens Wiklander 
3957509ff7cSJens Wiklander static void add_segment(struct ta_elf *elf, size_t offset, size_t vaddr,
3967509ff7cSJens Wiklander 			size_t filesz, size_t memsz, size_t flags, size_t align)
3977509ff7cSJens Wiklander {
3987509ff7cSJens Wiklander 	struct segment *seg = calloc(1, sizeof(*seg));
3997509ff7cSJens Wiklander 
4007509ff7cSJens Wiklander 	if (!seg)
4017509ff7cSJens Wiklander 		err(TEE_ERROR_OUT_OF_MEMORY, "calloc");
4027509ff7cSJens Wiklander 
4037509ff7cSJens Wiklander 	seg->offset = offset;
4047509ff7cSJens Wiklander 	seg->vaddr = vaddr;
4057509ff7cSJens Wiklander 	seg->filesz = filesz;
4067509ff7cSJens Wiklander 	seg->memsz = memsz;
4077509ff7cSJens Wiklander 	seg->flags = flags;
4087509ff7cSJens Wiklander 	seg->align = align;
4097509ff7cSJens Wiklander 
4107509ff7cSJens Wiklander 	TAILQ_INSERT_TAIL(&elf->segs, seg, link);
4117509ff7cSJens Wiklander }
4127509ff7cSJens Wiklander 
4137509ff7cSJens Wiklander static void parse_load_segments(struct ta_elf *elf)
4147509ff7cSJens Wiklander {
4157509ff7cSJens Wiklander 	size_t n = 0;
4167509ff7cSJens Wiklander 
4177509ff7cSJens Wiklander 	if (elf->is_32bit) {
4187509ff7cSJens Wiklander 		Elf32_Phdr *phdr = elf->phdr;
4197509ff7cSJens Wiklander 
4207509ff7cSJens Wiklander 		for (n = 0; n < elf->e_phnum; n++)
4210242833aSJens Wiklander 			if (phdr[n].p_type == PT_LOAD) {
4227509ff7cSJens Wiklander 				add_segment(elf, phdr[n].p_offset,
4237509ff7cSJens Wiklander 					    phdr[n].p_vaddr, phdr[n].p_filesz,
4247509ff7cSJens Wiklander 					    phdr[n].p_memsz, phdr[n].p_flags,
4257509ff7cSJens Wiklander 					    phdr[n].p_align);
4260242833aSJens Wiklander 			} else if (phdr[n].p_type == PT_ARM_EXIDX) {
4270242833aSJens Wiklander 				elf->exidx_start = phdr[n].p_vaddr;
4280242833aSJens Wiklander 				elf->exidx_size = phdr[n].p_filesz;
4290242833aSJens Wiklander 			}
4307509ff7cSJens Wiklander 	} else {
4317509ff7cSJens Wiklander 		Elf64_Phdr *phdr = elf->phdr;
4327509ff7cSJens Wiklander 
4337509ff7cSJens Wiklander 		for (n = 0; n < elf->e_phnum; n++)
4347509ff7cSJens Wiklander 			if (phdr[n].p_type == PT_LOAD)
4357509ff7cSJens Wiklander 				add_segment(elf, phdr[n].p_offset,
4367509ff7cSJens Wiklander 					    phdr[n].p_vaddr, phdr[n].p_filesz,
4377509ff7cSJens Wiklander 					    phdr[n].p_memsz, phdr[n].p_flags,
4387509ff7cSJens Wiklander 					    phdr[n].p_align);
4397509ff7cSJens Wiklander 	}
4407509ff7cSJens Wiklander }
4417509ff7cSJens Wiklander 
4427509ff7cSJens Wiklander static void copy_remapped_to(struct ta_elf *elf, const struct segment *seg)
4437509ff7cSJens Wiklander {
4447509ff7cSJens Wiklander 	uint8_t *dst = (void *)(seg->vaddr + elf->load_addr);
4457509ff7cSJens Wiklander 	size_t n = 0;
4467509ff7cSJens Wiklander 	size_t offs = seg->offset;
4477509ff7cSJens Wiklander 	size_t num_bytes = seg->filesz;
4487509ff7cSJens Wiklander 
4497509ff7cSJens Wiklander 	if (offs < elf->max_offs) {
4507509ff7cSJens Wiklander 		n = MIN(elf->max_offs - offs, num_bytes);
4517509ff7cSJens Wiklander 		memcpy(dst, (void *)(elf->max_addr + offs - elf->max_offs), n);
4527509ff7cSJens Wiklander 		dst += n;
4537509ff7cSJens Wiklander 		offs += n;
4547509ff7cSJens Wiklander 		num_bytes -= n;
4557509ff7cSJens Wiklander 	}
4567509ff7cSJens Wiklander 
4577509ff7cSJens Wiklander 	if (num_bytes) {
4587509ff7cSJens Wiklander 		TEE_Result res = sys_copy_from_ta_bin(dst, num_bytes,
4597509ff7cSJens Wiklander 						      elf->handle, offs);
4607509ff7cSJens Wiklander 
4617509ff7cSJens Wiklander 		if (res)
4627509ff7cSJens Wiklander 			err(res, "sys_copy_from_ta_bin");
4637509ff7cSJens Wiklander 		elf->max_offs += offs;
4647509ff7cSJens Wiklander 	}
4657509ff7cSJens Wiklander }
4667509ff7cSJens Wiklander 
4677509ff7cSJens Wiklander static void adjust_segments(struct ta_elf *elf)
4687509ff7cSJens Wiklander {
4697509ff7cSJens Wiklander 	struct segment *seg = NULL;
4707509ff7cSJens Wiklander 	struct segment *prev_seg = NULL;
4717509ff7cSJens Wiklander 	size_t prev_end_addr = 0;
4727509ff7cSJens Wiklander 	size_t align = 0;
4737509ff7cSJens Wiklander 	size_t mask = 0;
4747509ff7cSJens Wiklander 
4757509ff7cSJens Wiklander 	/* Sanity check */
4767509ff7cSJens Wiklander 	TAILQ_FOREACH(seg, &elf->segs, link) {
4777509ff7cSJens Wiklander 		size_t dummy __maybe_unused = 0;
4787509ff7cSJens Wiklander 
4797509ff7cSJens Wiklander 		assert(seg->align >= SMALL_PAGE_SIZE);
4807509ff7cSJens Wiklander 		assert(!ADD_OVERFLOW(seg->vaddr, seg->memsz, &dummy));
4817509ff7cSJens Wiklander 		assert(seg->filesz <= seg->memsz);
4827509ff7cSJens Wiklander 		assert((seg->offset & SMALL_PAGE_MASK) ==
4837509ff7cSJens Wiklander 		       (seg->vaddr & SMALL_PAGE_MASK));
4847509ff7cSJens Wiklander 
4857509ff7cSJens Wiklander 		prev_seg = TAILQ_PREV(seg, segment_head, link);
4867509ff7cSJens Wiklander 		if (prev_seg) {
4877509ff7cSJens Wiklander 			assert(seg->vaddr >= prev_seg->vaddr + prev_seg->memsz);
4887509ff7cSJens Wiklander 			assert(seg->offset >=
4897509ff7cSJens Wiklander 			       prev_seg->offset + prev_seg->filesz);
4907509ff7cSJens Wiklander 		}
4917509ff7cSJens Wiklander 		if (!align)
4927509ff7cSJens Wiklander 			align = seg->align;
4937509ff7cSJens Wiklander 		assert(align == seg->align);
4947509ff7cSJens Wiklander 	}
4957509ff7cSJens Wiklander 
4967509ff7cSJens Wiklander 	mask = align - 1;
4977509ff7cSJens Wiklander 
4987509ff7cSJens Wiklander 	seg = TAILQ_FIRST(&elf->segs);
4997509ff7cSJens Wiklander 	if (seg)
5007509ff7cSJens Wiklander 		seg = TAILQ_NEXT(seg, link);
5017509ff7cSJens Wiklander 	while (seg) {
5027509ff7cSJens Wiklander 		prev_seg = TAILQ_PREV(seg, segment_head, link);
5037509ff7cSJens Wiklander 		prev_end_addr = prev_seg->vaddr + prev_seg->memsz;
5047509ff7cSJens Wiklander 
5057509ff7cSJens Wiklander 		/*
5067509ff7cSJens Wiklander 		 * This segment may overlap with the last "page" in the
5077509ff7cSJens Wiklander 		 * previous segment in two different ways:
5087509ff7cSJens Wiklander 		 * 1. Virtual address (and offset) overlaps =>
5097509ff7cSJens Wiklander 		 *    Permissions needs to be merged. The offset must have
5107509ff7cSJens Wiklander 		 *    the SMALL_PAGE_MASK bits set as vaddr and offset must
5117509ff7cSJens Wiklander 		 *    add up with prevsion segment.
5127509ff7cSJens Wiklander 		 *
5137509ff7cSJens Wiklander 		 * 2. Only offset overlaps =>
5147509ff7cSJens Wiklander 		 *    The same page in the ELF is mapped at two different
5157509ff7cSJens Wiklander 		 *    virtual addresses. As a limitation this segment must
5167509ff7cSJens Wiklander 		 *    be mapped as writeable.
5177509ff7cSJens Wiklander 		 */
5187509ff7cSJens Wiklander 
5197509ff7cSJens Wiklander 		/* Case 1. */
5207509ff7cSJens Wiklander 		if (rounddown(seg->vaddr) < prev_end_addr) {
5217509ff7cSJens Wiklander 			assert((seg->vaddr & mask) == (seg->offset & mask));
5227509ff7cSJens Wiklander 			assert(prev_seg->memsz == prev_seg->filesz);
5237509ff7cSJens Wiklander 
5247509ff7cSJens Wiklander 			/*
5257509ff7cSJens Wiklander 			 * Merge the segments and their permissions.
5267509ff7cSJens Wiklander 			 * Note that the may be a small hole between the
5277509ff7cSJens Wiklander 			 * two sections.
5287509ff7cSJens Wiklander 			 */
5297509ff7cSJens Wiklander 			prev_seg->filesz = seg->vaddr + seg->filesz -
5307509ff7cSJens Wiklander 					   prev_seg->vaddr;
5317509ff7cSJens Wiklander 			prev_seg->memsz = seg->vaddr + seg->memsz -
5327509ff7cSJens Wiklander 					   prev_seg->vaddr;
5337509ff7cSJens Wiklander 			prev_seg->flags |= seg->flags;
5347509ff7cSJens Wiklander 
5357509ff7cSJens Wiklander 			TAILQ_REMOVE(&elf->segs, seg, link);
5367509ff7cSJens Wiklander 			free(seg);
5377509ff7cSJens Wiklander 			seg = TAILQ_NEXT(prev_seg, link);
5387509ff7cSJens Wiklander 			continue;
5397509ff7cSJens Wiklander 		}
5407509ff7cSJens Wiklander 
5417509ff7cSJens Wiklander 		/* Case 2. */
5427509ff7cSJens Wiklander 		if ((seg->offset & mask) &&
5437509ff7cSJens Wiklander 		    rounddown(seg->offset) <
5447509ff7cSJens Wiklander 		    (prev_seg->offset + prev_seg->filesz)) {
5457509ff7cSJens Wiklander 
5467509ff7cSJens Wiklander 			assert(seg->flags & PF_W);
5477509ff7cSJens Wiklander 			seg->remapped_writeable = true;
5487509ff7cSJens Wiklander 		}
5497509ff7cSJens Wiklander 
5507509ff7cSJens Wiklander 		/*
5517509ff7cSJens Wiklander 		 * No overlap, but we may need to align address, offset and
5527509ff7cSJens Wiklander 		 * size.
5537509ff7cSJens Wiklander 		 */
5547509ff7cSJens Wiklander 		seg->filesz += seg->vaddr - rounddown(seg->vaddr);
5557509ff7cSJens Wiklander 		seg->memsz += seg->vaddr - rounddown(seg->vaddr);
5567509ff7cSJens Wiklander 		seg->vaddr = rounddown(seg->vaddr);
5577509ff7cSJens Wiklander 		seg->offset = rounddown(seg->offset);
5587509ff7cSJens Wiklander 		seg = TAILQ_NEXT(seg, link);
5597509ff7cSJens Wiklander 	}
5607509ff7cSJens Wiklander 
5617509ff7cSJens Wiklander }
5627509ff7cSJens Wiklander 
5637509ff7cSJens Wiklander static void populate_segments_legacy(struct ta_elf *elf)
5647509ff7cSJens Wiklander {
5657509ff7cSJens Wiklander 	TEE_Result res = TEE_SUCCESS;
5667509ff7cSJens Wiklander 	struct segment *seg = NULL;
5677509ff7cSJens Wiklander 	vaddr_t va = 0;
5687509ff7cSJens Wiklander 
569c35dfd95SJens Wiklander 	assert(elf->is_legacy);
5707509ff7cSJens Wiklander 	TAILQ_FOREACH(seg, &elf->segs, link) {
5717509ff7cSJens Wiklander 		struct segment *last_seg = TAILQ_LAST(&elf->segs, segment_head);
5727509ff7cSJens Wiklander 		size_t pad_end = roundup(last_seg->vaddr + last_seg->memsz -
5737509ff7cSJens Wiklander 					 seg->vaddr - seg->memsz);
5747509ff7cSJens Wiklander 		size_t num_bytes = roundup(seg->memsz);
5757509ff7cSJens Wiklander 
5767509ff7cSJens Wiklander 		if (!elf->load_addr)
5777509ff7cSJens Wiklander 			va = 0;
5787509ff7cSJens Wiklander 		else
5797509ff7cSJens Wiklander 			va = seg->vaddr + elf->load_addr;
5807509ff7cSJens Wiklander 
5817509ff7cSJens Wiklander 
5827509ff7cSJens Wiklander 		if (!(seg->flags & PF_R))
5837509ff7cSJens Wiklander 			err(TEE_ERROR_NOT_SUPPORTED,
5847509ff7cSJens Wiklander 			    "Segment must be readable");
5857509ff7cSJens Wiklander 
5867509ff7cSJens Wiklander 		res = sys_map_zi(num_bytes, 0, &va, 0, pad_end);
5877509ff7cSJens Wiklander 		if (res)
5887509ff7cSJens Wiklander 			err(res, "sys_map_zi");
5897509ff7cSJens Wiklander 		res = sys_copy_from_ta_bin((void *)va, seg->filesz,
5907509ff7cSJens Wiklander 					   elf->handle, seg->offset);
5917509ff7cSJens Wiklander 		if (res)
5927509ff7cSJens Wiklander 			err(res, "sys_copy_from_ta_bin");
5937509ff7cSJens Wiklander 
5947509ff7cSJens Wiklander 		if (!elf->load_addr)
5957509ff7cSJens Wiklander 			elf->load_addr = va;
5967509ff7cSJens Wiklander 		elf->max_addr = va + num_bytes;
5977509ff7cSJens Wiklander 		elf->max_offs = seg->offset + seg->filesz;
5987509ff7cSJens Wiklander 	}
5997509ff7cSJens Wiklander }
6007509ff7cSJens Wiklander 
6016720dd49SJens Wiklander static size_t get_pad_begin(void)
6026720dd49SJens Wiklander {
6036720dd49SJens Wiklander #ifdef CFG_TA_ASLR
6046720dd49SJens Wiklander 	size_t min = CFG_TA_ASLR_MIN_OFFSET_PAGES;
6056720dd49SJens Wiklander 	size_t max = CFG_TA_ASLR_MAX_OFFSET_PAGES;
6066720dd49SJens Wiklander 	TEE_Result res = TEE_SUCCESS;
6076720dd49SJens Wiklander 	uint32_t rnd32 = 0;
6086720dd49SJens Wiklander 	size_t rnd = 0;
6096720dd49SJens Wiklander 
6106720dd49SJens Wiklander 	COMPILE_TIME_ASSERT(CFG_TA_ASLR_MIN_OFFSET_PAGES <
6116720dd49SJens Wiklander 			    CFG_TA_ASLR_MAX_OFFSET_PAGES);
6126720dd49SJens Wiklander 	if (max > min) {
6136720dd49SJens Wiklander 		res = utee_cryp_random_number_generate(&rnd32, sizeof(rnd32));
6146720dd49SJens Wiklander 		if (res) {
6156720dd49SJens Wiklander 			DMSG("Random read failed: %#"PRIx32, res);
6166720dd49SJens Wiklander 			return min * SMALL_PAGE_SIZE;
6176720dd49SJens Wiklander 		}
6186720dd49SJens Wiklander 		rnd = rnd32 % (max - min);
6196720dd49SJens Wiklander 	}
6206720dd49SJens Wiklander 
6216720dd49SJens Wiklander 	return (min + rnd) * SMALL_PAGE_SIZE;
6226720dd49SJens Wiklander #else /*!CFG_TA_ASLR*/
6236720dd49SJens Wiklander 	return 0;
6246720dd49SJens Wiklander #endif /*!CFG_TA_ASLR*/
6256720dd49SJens Wiklander }
6266720dd49SJens Wiklander 
6277509ff7cSJens Wiklander static void populate_segments(struct ta_elf *elf)
6287509ff7cSJens Wiklander {
6297509ff7cSJens Wiklander 	TEE_Result res = TEE_SUCCESS;
6307509ff7cSJens Wiklander 	struct segment *seg = NULL;
6317509ff7cSJens Wiklander 	vaddr_t va = 0;
6326720dd49SJens Wiklander 	size_t pad_begin = 0;
6337509ff7cSJens Wiklander 
634c35dfd95SJens Wiklander 	assert(!elf->is_legacy);
6357509ff7cSJens Wiklander 	TAILQ_FOREACH(seg, &elf->segs, link) {
6367509ff7cSJens Wiklander 		struct segment *last_seg = TAILQ_LAST(&elf->segs, segment_head);
6377509ff7cSJens Wiklander 		size_t pad_end = roundup(last_seg->vaddr + last_seg->memsz -
6387509ff7cSJens Wiklander 					 seg->vaddr - seg->memsz);
6397509ff7cSJens Wiklander 
6407509ff7cSJens Wiklander 		if (seg->remapped_writeable) {
6417509ff7cSJens Wiklander 			size_t num_bytes = roundup(seg->vaddr + seg->memsz) -
6427509ff7cSJens Wiklander 					   rounddown(seg->vaddr);
6437509ff7cSJens Wiklander 
6447509ff7cSJens Wiklander 			assert(elf->load_addr);
6457509ff7cSJens Wiklander 			va = rounddown(elf->load_addr + seg->vaddr);
6467509ff7cSJens Wiklander 			assert(va >= elf->max_addr);
6477509ff7cSJens Wiklander 			res = sys_map_zi(num_bytes, 0, &va, 0, pad_end);
6487509ff7cSJens Wiklander 			if (res)
6497509ff7cSJens Wiklander 				err(res, "sys_map_zi");
6507509ff7cSJens Wiklander 
6517509ff7cSJens Wiklander 			copy_remapped_to(elf, seg);
6527509ff7cSJens Wiklander 			elf->max_addr = va + num_bytes;
6537509ff7cSJens Wiklander 		} else {
6547509ff7cSJens Wiklander 			uint32_t flags =  0;
6557509ff7cSJens Wiklander 			size_t filesz = seg->filesz;
6567509ff7cSJens Wiklander 			size_t memsz = seg->memsz;
6577509ff7cSJens Wiklander 			size_t offset = seg->offset;
6587509ff7cSJens Wiklander 			size_t vaddr = seg->vaddr;
6597509ff7cSJens Wiklander 
6607509ff7cSJens Wiklander 			if (offset < elf->max_offs) {
6617509ff7cSJens Wiklander 				/*
6627509ff7cSJens Wiklander 				 * We're in a load segment which overlaps
6637509ff7cSJens Wiklander 				 * with (or is covered by) the first page
6647509ff7cSJens Wiklander 				 * of a shared library.
6657509ff7cSJens Wiklander 				 */
6667509ff7cSJens Wiklander 				if (vaddr + filesz < SMALL_PAGE_SIZE) {
6677509ff7cSJens Wiklander 					size_t num_bytes = 0;
6687509ff7cSJens Wiklander 
6697509ff7cSJens Wiklander 					/*
6707509ff7cSJens Wiklander 					 * If this segment is completely
6717509ff7cSJens Wiklander 					 * covered, take next.
6727509ff7cSJens Wiklander 					 */
6737509ff7cSJens Wiklander 					if (vaddr + memsz <= SMALL_PAGE_SIZE)
6747509ff7cSJens Wiklander 						continue;
6757509ff7cSJens Wiklander 
6767509ff7cSJens Wiklander 					/*
6777509ff7cSJens Wiklander 					 * All data of the segment is
6787509ff7cSJens Wiklander 					 * loaded, but we need to zero
6797509ff7cSJens Wiklander 					 * extend it.
6807509ff7cSJens Wiklander 					 */
6817509ff7cSJens Wiklander 					va = elf->max_addr;
6827509ff7cSJens Wiklander 					num_bytes = roundup(vaddr + memsz) -
6837509ff7cSJens Wiklander 						    roundup(vaddr) -
6847509ff7cSJens Wiklander 						    SMALL_PAGE_SIZE;
6857509ff7cSJens Wiklander 					assert(num_bytes);
6867509ff7cSJens Wiklander 					res = sys_map_zi(num_bytes, 0, &va, 0,
6877509ff7cSJens Wiklander 							 0);
6887509ff7cSJens Wiklander 					if (res)
6897509ff7cSJens Wiklander 						err(res, "sys_map_zi");
6907509ff7cSJens Wiklander 					elf->max_addr = roundup(va + num_bytes);
6917509ff7cSJens Wiklander 					continue;
6927509ff7cSJens Wiklander 				}
6937509ff7cSJens Wiklander 
6947509ff7cSJens Wiklander 				/* Partial overlap, remove the first page. */
6957509ff7cSJens Wiklander 				vaddr += SMALL_PAGE_SIZE;
6967509ff7cSJens Wiklander 				filesz -= SMALL_PAGE_SIZE;
6977509ff7cSJens Wiklander 				memsz -= SMALL_PAGE_SIZE;
6987509ff7cSJens Wiklander 				offset += SMALL_PAGE_SIZE;
6997509ff7cSJens Wiklander 			}
7007509ff7cSJens Wiklander 
7016720dd49SJens Wiklander 			if (!elf->load_addr) {
7027509ff7cSJens Wiklander 				va = 0;
7036720dd49SJens Wiklander 				pad_begin = get_pad_begin();
7046720dd49SJens Wiklander 				/*
7056720dd49SJens Wiklander 				 * If mapping with pad_begin fails we'll
7066720dd49SJens Wiklander 				 * retry without pad_begin, effectively
7076720dd49SJens Wiklander 				 * disabling ASLR for the current ELF file.
7086720dd49SJens Wiklander 				 */
7096720dd49SJens Wiklander 			} else {
7107509ff7cSJens Wiklander 				va = vaddr + elf->load_addr;
7116720dd49SJens Wiklander 				pad_begin = 0;
7126720dd49SJens Wiklander 			}
7137509ff7cSJens Wiklander 
7147509ff7cSJens Wiklander 			if (seg->flags & PF_W)
7157509ff7cSJens Wiklander 				flags |= PTA_SYSTEM_MAP_FLAG_WRITEABLE;
7167509ff7cSJens Wiklander 			else
7177509ff7cSJens Wiklander 				flags |= PTA_SYSTEM_MAP_FLAG_SHAREABLE;
7187509ff7cSJens Wiklander 			if (seg->flags & PF_X)
7197509ff7cSJens Wiklander 				flags |= PTA_SYSTEM_MAP_FLAG_EXECUTABLE;
7207509ff7cSJens Wiklander 			if (!(seg->flags & PF_R))
7217509ff7cSJens Wiklander 				err(TEE_ERROR_NOT_SUPPORTED,
7227509ff7cSJens Wiklander 				    "Segment must be readable");
7237509ff7cSJens Wiklander 			if (flags & PTA_SYSTEM_MAP_FLAG_WRITEABLE) {
7246720dd49SJens Wiklander 				res = sys_map_zi(memsz, 0, &va, pad_begin,
7256720dd49SJens Wiklander 						 pad_end);
7266720dd49SJens Wiklander 				if (pad_begin && res == TEE_ERROR_OUT_OF_MEMORY)
7276720dd49SJens Wiklander 					res = sys_map_zi(memsz, 0, &va, 0,
7286720dd49SJens Wiklander 							 pad_end);
7297509ff7cSJens Wiklander 				if (res)
7307509ff7cSJens Wiklander 					err(res, "sys_map_zi");
7317509ff7cSJens Wiklander 				res = sys_copy_from_ta_bin((void *)va, filesz,
7327509ff7cSJens Wiklander 							   elf->handle, offset);
7337509ff7cSJens Wiklander 				if (res)
7347509ff7cSJens Wiklander 					err(res, "sys_copy_from_ta_bin");
7357509ff7cSJens Wiklander 			} else {
7367509ff7cSJens Wiklander 				res = sys_map_ta_bin(&va, filesz, flags,
7377509ff7cSJens Wiklander 						     elf->handle, offset,
7386720dd49SJens Wiklander 						     pad_begin, pad_end);
7396720dd49SJens Wiklander 				if (pad_begin && res == TEE_ERROR_OUT_OF_MEMORY)
7406720dd49SJens Wiklander 					res = sys_map_ta_bin(&va, filesz, flags,
7416720dd49SJens Wiklander 							     elf->handle,
7426720dd49SJens Wiklander 							     offset, 0,
7436720dd49SJens Wiklander 							     pad_end);
7447509ff7cSJens Wiklander 				if (res)
7457509ff7cSJens Wiklander 					err(res, "sys_map_ta_bin");
7467509ff7cSJens Wiklander 			}
7477509ff7cSJens Wiklander 
7487509ff7cSJens Wiklander 			if (!elf->load_addr)
7497509ff7cSJens Wiklander 				elf->load_addr = va;
7507509ff7cSJens Wiklander 			elf->max_addr = roundup(va + filesz);
7517509ff7cSJens Wiklander 			elf->max_offs += filesz;
7527509ff7cSJens Wiklander 		}
7537509ff7cSJens Wiklander 	}
7547509ff7cSJens Wiklander }
7557509ff7cSJens Wiklander 
7567509ff7cSJens Wiklander static void map_segments(struct ta_elf *elf)
7577509ff7cSJens Wiklander {
75888796f89SJens Wiklander 	TEE_Result res = TEE_SUCCESS;
75988796f89SJens Wiklander 
7607509ff7cSJens Wiklander 	parse_load_segments(elf);
7617509ff7cSJens Wiklander 	adjust_segments(elf);
76288796f89SJens Wiklander 	if (TAILQ_FIRST(&elf->segs)->offset < SMALL_PAGE_SIZE) {
76388796f89SJens Wiklander 		vaddr_t va = 0;
76488796f89SJens Wiklander 		size_t sz = elf->max_addr - elf->load_addr;
76588796f89SJens Wiklander 		struct segment *seg = TAILQ_LAST(&elf->segs, segment_head);
7666720dd49SJens Wiklander 		size_t pad_begin = get_pad_begin();
76788796f89SJens Wiklander 
76888796f89SJens Wiklander 		/*
76988796f89SJens Wiklander 		 * We're loading a library, if not other parts of the code
77088796f89SJens Wiklander 		 * need to be updated too.
77188796f89SJens Wiklander 		 */
77288796f89SJens Wiklander 		assert(!elf->is_main);
77388796f89SJens Wiklander 
77488796f89SJens Wiklander 		/*
77588796f89SJens Wiklander 		 * Now that we know how much virtual memory is needed move
77688796f89SJens Wiklander 		 * the already mapped part to a location which can
77788796f89SJens Wiklander 		 * accommodate us.
77888796f89SJens Wiklander 		 */
7796720dd49SJens Wiklander 		res = sys_remap(elf->load_addr, &va, sz, pad_begin,
7806720dd49SJens Wiklander 				roundup(seg->vaddr + seg->memsz));
7816720dd49SJens Wiklander 		if (res == TEE_ERROR_OUT_OF_MEMORY)
78288796f89SJens Wiklander 			res = sys_remap(elf->load_addr, &va, sz, 0,
78388796f89SJens Wiklander 					roundup(seg->vaddr + seg->memsz));
78488796f89SJens Wiklander 		if (res)
78588796f89SJens Wiklander 			err(res, "sys_remap");
78688796f89SJens Wiklander 		elf->ehdr_addr = va;
78788796f89SJens Wiklander 		elf->load_addr = va;
78888796f89SJens Wiklander 		elf->max_addr = va + sz;
78988796f89SJens Wiklander 		elf->phdr = (void *)(va + elf->e_phoff);
79088796f89SJens Wiklander 	}
7917509ff7cSJens Wiklander }
7927509ff7cSJens Wiklander 
7937509ff7cSJens Wiklander static void add_deps_from_segment(struct ta_elf *elf, unsigned int type,
7947509ff7cSJens Wiklander 				  vaddr_t addr, size_t memsz)
7957509ff7cSJens Wiklander {
7967509ff7cSJens Wiklander 	size_t dyn_entsize = 0;
7977509ff7cSJens Wiklander 	size_t num_dyns = 0;
7987509ff7cSJens Wiklander 	size_t n = 0;
7997509ff7cSJens Wiklander 	unsigned int tag = 0;
8007509ff7cSJens Wiklander 	size_t val = 0;
8017509ff7cSJens Wiklander 	TEE_UUID uuid = { };
8027509ff7cSJens Wiklander 	char *str_tab = NULL;
8037509ff7cSJens Wiklander 
8047509ff7cSJens Wiklander 	if (type != PT_DYNAMIC)
8057509ff7cSJens Wiklander 		return;
8067509ff7cSJens Wiklander 
807bc1d13c1SJens Wiklander 	check_phdr_in_range(elf, type, addr, memsz);
808bc1d13c1SJens Wiklander 
8097509ff7cSJens Wiklander 	if (elf->is_32bit)
8107509ff7cSJens Wiklander 		dyn_entsize = sizeof(Elf32_Dyn);
8117509ff7cSJens Wiklander 	else
8127509ff7cSJens Wiklander 		dyn_entsize = sizeof(Elf64_Dyn);
8137509ff7cSJens Wiklander 
8147509ff7cSJens Wiklander 	assert(!(memsz % dyn_entsize));
8157509ff7cSJens Wiklander 	num_dyns = memsz / dyn_entsize;
8167509ff7cSJens Wiklander 
8177509ff7cSJens Wiklander 	for (n = 0; n < num_dyns; n++) {
8187509ff7cSJens Wiklander 		read_dyn(elf, addr, n, &tag, &val);
8197509ff7cSJens Wiklander 		if (tag == DT_STRTAB) {
8207509ff7cSJens Wiklander 			str_tab = (char *)(val + elf->load_addr);
8217509ff7cSJens Wiklander 			break;
8227509ff7cSJens Wiklander 		}
8237509ff7cSJens Wiklander 	}
8247509ff7cSJens Wiklander 
8257509ff7cSJens Wiklander 	for (n = 0; n < num_dyns; n++) {
8267509ff7cSJens Wiklander 		read_dyn(elf, addr, n, &tag, &val);
8277509ff7cSJens Wiklander 		if (tag != DT_NEEDED)
8287509ff7cSJens Wiklander 			continue;
829791ee55cSJerome Forissier 		tee_uuid_from_str(&uuid, str_tab + val);
8307509ff7cSJens Wiklander 		queue_elf(&uuid);
8317509ff7cSJens Wiklander 	}
8327509ff7cSJens Wiklander }
8337509ff7cSJens Wiklander 
8347509ff7cSJens Wiklander static void add_dependencies(struct ta_elf *elf)
8357509ff7cSJens Wiklander {
8367509ff7cSJens Wiklander 	size_t n = 0;
8377509ff7cSJens Wiklander 
8387509ff7cSJens Wiklander 	if (elf->is_32bit) {
8397509ff7cSJens Wiklander 		Elf32_Phdr *phdr = elf->phdr;
8407509ff7cSJens Wiklander 
8417509ff7cSJens Wiklander 		for (n = 0; n < elf->e_phnum; n++)
8427509ff7cSJens Wiklander 			add_deps_from_segment(elf, phdr[n].p_type,
8437509ff7cSJens Wiklander 					      phdr[n].p_vaddr, phdr[n].p_memsz);
8447509ff7cSJens Wiklander 	} else {
8457509ff7cSJens Wiklander 		Elf64_Phdr *phdr = elf->phdr;
8467509ff7cSJens Wiklander 
8477509ff7cSJens Wiklander 		for (n = 0; n < elf->e_phnum; n++)
8487509ff7cSJens Wiklander 			add_deps_from_segment(elf, phdr[n].p_type,
8497509ff7cSJens Wiklander 					      phdr[n].p_vaddr, phdr[n].p_memsz);
8507509ff7cSJens Wiklander 	}
8517509ff7cSJens Wiklander }
8527509ff7cSJens Wiklander 
8537509ff7cSJens Wiklander static void copy_section_headers(struct ta_elf *elf)
8547509ff7cSJens Wiklander {
8557509ff7cSJens Wiklander 	TEE_Result res = TEE_SUCCESS;
856cfd9b9f7SJens Wiklander 	size_t sz = 0;
8577509ff7cSJens Wiklander 	size_t offs = 0;
8587509ff7cSJens Wiklander 
859cfd9b9f7SJens Wiklander 	if (MUL_OVERFLOW(elf->e_shnum, elf->e_shentsize, &sz))
860cfd9b9f7SJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "Shdr size overflow");
861cfd9b9f7SJens Wiklander 
8627509ff7cSJens Wiklander 	elf->shdr = malloc(sz);
8637509ff7cSJens Wiklander 	if (!elf->shdr)
8647509ff7cSJens Wiklander 		err(TEE_ERROR_OUT_OF_MEMORY, "malloc");
8657509ff7cSJens Wiklander 
8667509ff7cSJens Wiklander 	/*
8677509ff7cSJens Wiklander 	 * We're assuming that section headers comes after the load segments,
8687509ff7cSJens Wiklander 	 * but if it's a very small dynamically linked library the section
8697509ff7cSJens Wiklander 	 * headers can still end up (partially?) in the first mapped page.
8707509ff7cSJens Wiklander 	 */
8717509ff7cSJens Wiklander 	if (elf->e_shoff < SMALL_PAGE_SIZE) {
8727509ff7cSJens Wiklander 		assert(!elf->is_main);
8737509ff7cSJens Wiklander 		offs = MIN(SMALL_PAGE_SIZE - elf->e_shoff, sz);
8747509ff7cSJens Wiklander 		memcpy(elf->shdr, (void *)(elf->load_addr + elf->e_shoff),
8757509ff7cSJens Wiklander 		       offs);
8767509ff7cSJens Wiklander 	}
8777509ff7cSJens Wiklander 
8787509ff7cSJens Wiklander 	if (offs < sz) {
8797509ff7cSJens Wiklander 		res = sys_copy_from_ta_bin((uint8_t *)elf->shdr + offs,
8807509ff7cSJens Wiklander 					   sz - offs, elf->handle,
8817509ff7cSJens Wiklander 					   elf->e_shoff + offs);
8827509ff7cSJens Wiklander 		if (res)
8837509ff7cSJens Wiklander 			err(res, "sys_copy_from_ta_bin");
8847509ff7cSJens Wiklander 	}
8857509ff7cSJens Wiklander }
8867509ff7cSJens Wiklander 
8877509ff7cSJens Wiklander static void close_handle(struct ta_elf *elf)
8887509ff7cSJens Wiklander {
8897509ff7cSJens Wiklander 	TEE_Result res = sys_close_ta_bin(elf->handle);
8907509ff7cSJens Wiklander 
8917509ff7cSJens Wiklander 	if (res)
8927509ff7cSJens Wiklander 		err(res, "sys_close_ta_bin");
8937509ff7cSJens Wiklander 	elf->handle = -1;
8947509ff7cSJens Wiklander }
8957509ff7cSJens Wiklander 
896c35dfd95SJens Wiklander static void clean_elf_load_main(struct ta_elf *elf)
897c35dfd95SJens Wiklander {
898c35dfd95SJens Wiklander 	TEE_Result res = TEE_SUCCESS;
899c35dfd95SJens Wiklander 
900c35dfd95SJens Wiklander 	/*
901c35dfd95SJens Wiklander 	 * Clean up from last attempt to load
902c35dfd95SJens Wiklander 	 */
903c35dfd95SJens Wiklander 	res = sys_unmap(elf->ehdr_addr, SMALL_PAGE_SIZE);
904c35dfd95SJens Wiklander 	if (res)
905c35dfd95SJens Wiklander 		err(res, "sys_unmap");
906c35dfd95SJens Wiklander 
907c35dfd95SJens Wiklander 	while (!TAILQ_EMPTY(&elf->segs)) {
908c35dfd95SJens Wiklander 		struct segment *seg = TAILQ_FIRST(&elf->segs);
909c35dfd95SJens Wiklander 		vaddr_t va = 0;
910c35dfd95SJens Wiklander 		size_t num_bytes = 0;
911c35dfd95SJens Wiklander 
912c35dfd95SJens Wiklander 		va = rounddown(elf->load_addr + seg->vaddr);
913c35dfd95SJens Wiklander 		if (seg->remapped_writeable)
914c35dfd95SJens Wiklander 			num_bytes = roundup(seg->vaddr + seg->memsz) -
915c35dfd95SJens Wiklander 				    rounddown(seg->vaddr);
916c35dfd95SJens Wiklander 		else
917c35dfd95SJens Wiklander 			num_bytes = seg->memsz;
918c35dfd95SJens Wiklander 
919c35dfd95SJens Wiklander 		res = sys_unmap(va, num_bytes);
920c35dfd95SJens Wiklander 		if (res)
921c35dfd95SJens Wiklander 			err(res, "sys_unmap");
922c35dfd95SJens Wiklander 
923c35dfd95SJens Wiklander 		TAILQ_REMOVE(&elf->segs, seg, link);
924c35dfd95SJens Wiklander 		free(seg);
925c35dfd95SJens Wiklander 	}
926c35dfd95SJens Wiklander 
927c35dfd95SJens Wiklander 	free(elf->shdr);
928c35dfd95SJens Wiklander 	memset(&elf->is_32bit, 0,
929c35dfd95SJens Wiklander 	       (vaddr_t)&elf->uuid - (vaddr_t)&elf->is_32bit);
930c35dfd95SJens Wiklander 
931c35dfd95SJens Wiklander 	TAILQ_INIT(&elf->segs);
932c35dfd95SJens Wiklander }
933c35dfd95SJens Wiklander 
934c35dfd95SJens Wiklander static void load_main(struct ta_elf *elf)
935c35dfd95SJens Wiklander {
936c35dfd95SJens Wiklander 	init_elf(elf);
937c35dfd95SJens Wiklander 	map_segments(elf);
938c35dfd95SJens Wiklander 	populate_segments(elf);
939c35dfd95SJens Wiklander 	add_dependencies(elf);
940c35dfd95SJens Wiklander 	copy_section_headers(elf);
941c35dfd95SJens Wiklander 	save_symtab(elf);
942c35dfd95SJens Wiklander 	close_handle(elf);
943c35dfd95SJens Wiklander 
944c35dfd95SJens Wiklander 	elf->head = (struct ta_head *)elf->load_addr;
945c35dfd95SJens Wiklander 	if (elf->head->depr_entry != UINT64_MAX) {
946c35dfd95SJens Wiklander 		/*
947c35dfd95SJens Wiklander 		 * Legacy TAs sets their entry point in ta_head. For
948c35dfd95SJens Wiklander 		 * non-legacy TAs the entry point of the ELF is set instead
949c35dfd95SJens Wiklander 		 * and leaving the ta_head entry point set to UINT64_MAX to
950c35dfd95SJens Wiklander 		 * indicate that it's not used.
951c35dfd95SJens Wiklander 		 *
952c35dfd95SJens Wiklander 		 * NB, everything before the commit a73b5878c89d ("Replace
953c35dfd95SJens Wiklander 		 * ta_head.entry with elf entry") is considered legacy TAs
954c35dfd95SJens Wiklander 		 * for ldelf.
955c35dfd95SJens Wiklander 		 *
956c35dfd95SJens Wiklander 		 * Legacy TAs cannot be mapped with shared memory segments
957c35dfd95SJens Wiklander 		 * so restart the mapping if it turned out we're loading a
958c35dfd95SJens Wiklander 		 * legacy TA.
959c35dfd95SJens Wiklander 		 */
960c35dfd95SJens Wiklander 
961c35dfd95SJens Wiklander 		DMSG("Reloading TA %pUl as legacy TA", (void *)&elf->uuid);
962c35dfd95SJens Wiklander 		clean_elf_load_main(elf);
963c35dfd95SJens Wiklander 		elf->is_legacy = true;
964c35dfd95SJens Wiklander 		init_elf(elf);
965c35dfd95SJens Wiklander 		map_segments(elf);
966c35dfd95SJens Wiklander 		populate_segments_legacy(elf);
967c35dfd95SJens Wiklander 		add_dependencies(elf);
968c35dfd95SJens Wiklander 		copy_section_headers(elf);
969c35dfd95SJens Wiklander 		save_symtab(elf);
970c35dfd95SJens Wiklander 		close_handle(elf);
971c35dfd95SJens Wiklander 		elf->head = (struct ta_head *)elf->load_addr;
972c35dfd95SJens Wiklander 		/*
973c35dfd95SJens Wiklander 		 * Check that the TA is still a legacy TA, if it isn't give
974c35dfd95SJens Wiklander 		 * up now since we're likely under attack.
975c35dfd95SJens Wiklander 		 */
976c35dfd95SJens Wiklander 		if (elf->head->depr_entry == UINT64_MAX)
977c35dfd95SJens Wiklander 			err(TEE_ERROR_GENERIC,
978c35dfd95SJens Wiklander 			    "TA %pUl was changed on disk to non-legacy",
979c35dfd95SJens Wiklander 			    (void *)&elf->uuid);
980c35dfd95SJens Wiklander 	}
981c35dfd95SJens Wiklander 
982c35dfd95SJens Wiklander }
983c35dfd95SJens Wiklander 
984c35dfd95SJens Wiklander void ta_elf_load_main(const TEE_UUID *uuid, uint32_t *is_32bit, uint64_t *sp,
985c35dfd95SJens Wiklander 		      uint32_t *ta_flags)
9867509ff7cSJens Wiklander {
9877509ff7cSJens Wiklander 	struct ta_elf *elf = queue_elf(uuid);
9887509ff7cSJens Wiklander 	vaddr_t va = 0;
9897509ff7cSJens Wiklander 	TEE_Result res = TEE_SUCCESS;
9907509ff7cSJens Wiklander 
9917509ff7cSJens Wiklander 	assert(elf);
9927509ff7cSJens Wiklander 	elf->is_main = true;
9937509ff7cSJens Wiklander 
994c35dfd95SJens Wiklander 	load_main(elf);
9957509ff7cSJens Wiklander 
9967509ff7cSJens Wiklander 	*is_32bit = elf->is_32bit;
997c35dfd95SJens Wiklander 	res = sys_map_zi(elf->head->stack_size, 0, &va, 0, 0);
9987509ff7cSJens Wiklander 	if (res)
9997509ff7cSJens Wiklander 		err(res, "sys_map_zi stack");
10007509ff7cSJens Wiklander 
1001c35dfd95SJens Wiklander 	if (elf->head->flags & ~TA_FLAGS_MASK)
10027509ff7cSJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "Invalid TA flags(s) %#"PRIx32,
1003c35dfd95SJens Wiklander 		    elf->head->flags & ~TA_FLAGS_MASK);
10047509ff7cSJens Wiklander 
1005c35dfd95SJens Wiklander 	*ta_flags = elf->head->flags;
1006c35dfd95SJens Wiklander 	*sp = va + elf->head->stack_size;
100765137432SJens Wiklander 	ta_stack = va;
1008c35dfd95SJens Wiklander 	ta_stack_size = elf->head->stack_size;
10097509ff7cSJens Wiklander }
10107509ff7cSJens Wiklander 
1011c35dfd95SJens Wiklander void ta_elf_finalize_load_main(uint64_t *entry)
1012c35dfd95SJens Wiklander {
1013c35dfd95SJens Wiklander 	struct ta_elf *elf = TAILQ_FIRST(&main_elf_queue);
1014dd655cb9SJerome Forissier 	TEE_Result res = TEE_SUCCESS;
1015c35dfd95SJens Wiklander 
1016c35dfd95SJens Wiklander 	assert(elf->is_main);
1017c35dfd95SJens Wiklander 
1018dd655cb9SJerome Forissier 	res = ta_elf_set_init_fini_info(elf->is_32bit);
1019dd655cb9SJerome Forissier 	if (res)
1020dd655cb9SJerome Forissier 		err(res, "ta_elf_set_init_fini_info");
1021dd655cb9SJerome Forissier 
1022c35dfd95SJens Wiklander 	if (elf->is_legacy)
1023c35dfd95SJens Wiklander 		*entry = elf->head->depr_entry;
1024c35dfd95SJens Wiklander 	else
1025c35dfd95SJens Wiklander 		*entry = elf->e_entry + elf->load_addr;
1026c35dfd95SJens Wiklander }
1027c35dfd95SJens Wiklander 
1028c35dfd95SJens Wiklander 
10297509ff7cSJens Wiklander void ta_elf_load_dependency(struct ta_elf *elf, bool is_32bit)
10307509ff7cSJens Wiklander {
10317509ff7cSJens Wiklander 	if (elf->is_main)
10327509ff7cSJens Wiklander 		return;
10337509ff7cSJens Wiklander 
10347509ff7cSJens Wiklander 	init_elf(elf);
10357509ff7cSJens Wiklander 	if (elf->is_32bit != is_32bit)
10367509ff7cSJens Wiklander 		err(TEE_ERROR_BAD_FORMAT, "ELF %pUl is %sbit (expected %sbit)",
10377509ff7cSJens Wiklander 		    (void *)&elf->uuid, elf->is_32bit ? "32" : "64",
10387509ff7cSJens Wiklander 		    is_32bit ? "32" : "64");
10397509ff7cSJens Wiklander 
10407509ff7cSJens Wiklander 	map_segments(elf);
1041c35dfd95SJens Wiklander 	populate_segments(elf);
10427509ff7cSJens Wiklander 	add_dependencies(elf);
10437509ff7cSJens Wiklander 	copy_section_headers(elf);
10447509ff7cSJens Wiklander 	save_symtab(elf);
10457509ff7cSJens Wiklander 	close_handle(elf);
10467509ff7cSJens Wiklander }
10477509ff7cSJens Wiklander 
10487509ff7cSJens Wiklander void ta_elf_finalize_mappings(struct ta_elf *elf)
10497509ff7cSJens Wiklander {
10507509ff7cSJens Wiklander 	TEE_Result res = TEE_SUCCESS;
10517509ff7cSJens Wiklander 	struct segment *seg = NULL;
10527509ff7cSJens Wiklander 
10537509ff7cSJens Wiklander 	if (!elf->is_legacy)
10547509ff7cSJens Wiklander 		return;
10557509ff7cSJens Wiklander 
10567509ff7cSJens Wiklander 	TAILQ_FOREACH(seg, &elf->segs, link) {
10577509ff7cSJens Wiklander 		vaddr_t va = elf->load_addr + seg->vaddr;
10587509ff7cSJens Wiklander 		uint32_t flags =  0;
10597509ff7cSJens Wiklander 
10607509ff7cSJens Wiklander 		if (seg->flags & PF_W)
10617509ff7cSJens Wiklander 			flags |= PTA_SYSTEM_MAP_FLAG_WRITEABLE;
10627509ff7cSJens Wiklander 		if (seg->flags & PF_X)
10637509ff7cSJens Wiklander 			flags |= PTA_SYSTEM_MAP_FLAG_EXECUTABLE;
10647509ff7cSJens Wiklander 
10657509ff7cSJens Wiklander 		res = sys_set_prot(va, seg->memsz, flags);
10667509ff7cSJens Wiklander 		if (res)
10677509ff7cSJens Wiklander 			err(res, "sys_set_prot");
10687509ff7cSJens Wiklander 	}
10697509ff7cSJens Wiklander }
107065137432SJens Wiklander 
1071c86f218cSJens Wiklander static void __printf(3, 4) print_wrapper(void *pctx, print_func_t print_func,
1072c86f218cSJens Wiklander 					 const char *fmt, ...)
1073c86f218cSJens Wiklander {
1074c86f218cSJens Wiklander 	va_list ap;
1075c86f218cSJens Wiklander 
1076c86f218cSJens Wiklander 	va_start(ap, fmt);
1077c86f218cSJens Wiklander 	print_func(pctx, fmt, ap);
1078c86f218cSJens Wiklander 	va_end(ap);
1079c86f218cSJens Wiklander }
1080c86f218cSJens Wiklander 
1081c86f218cSJens Wiklander static void print_seg(void *pctx, print_func_t print_func,
1082c86f218cSJens Wiklander 		      size_t idx __maybe_unused, int elf_idx __maybe_unused,
108365137432SJens Wiklander 		      vaddr_t va __maybe_unused, paddr_t pa __maybe_unused,
108465137432SJens Wiklander 		      size_t sz __maybe_unused, uint32_t flags)
108565137432SJens Wiklander {
108665137432SJens Wiklander 	int width __maybe_unused = 8;
108765137432SJens Wiklander 	char desc[14] __maybe_unused = "";
108865137432SJens Wiklander 	char flags_str[] __maybe_unused = "----";
108965137432SJens Wiklander 
109065137432SJens Wiklander 	if (elf_idx > -1) {
109165137432SJens Wiklander 		snprintf(desc, sizeof(desc), " [%d]", elf_idx);
109265137432SJens Wiklander 	} else {
109365137432SJens Wiklander 		if (flags & DUMP_MAP_EPHEM)
109465137432SJens Wiklander 			snprintf(desc, sizeof(desc), " (param)");
109565137432SJens Wiklander 		if (flags & DUMP_MAP_LDELF)
109665137432SJens Wiklander 			snprintf(desc, sizeof(desc), " (ldelf)");
109765137432SJens Wiklander 		if (va == ta_stack)
109865137432SJens Wiklander 			snprintf(desc, sizeof(desc), " (stack)");
109965137432SJens Wiklander 	}
110065137432SJens Wiklander 
110165137432SJens Wiklander 	if (flags & DUMP_MAP_READ)
110265137432SJens Wiklander 		flags_str[0] = 'r';
110365137432SJens Wiklander 	if (flags & DUMP_MAP_WRITE)
110465137432SJens Wiklander 		flags_str[1] = 'w';
110565137432SJens Wiklander 	if (flags & DUMP_MAP_EXEC)
110665137432SJens Wiklander 		flags_str[2] = 'x';
110765137432SJens Wiklander 	if (flags & DUMP_MAP_SECURE)
110865137432SJens Wiklander 		flags_str[3] = 's';
110965137432SJens Wiklander 
1110c86f218cSJens Wiklander 	print_wrapper(pctx, print_func,
1111c86f218cSJens Wiklander 		      "region %2zu: va 0x%0*"PRIxVA" pa 0x%0*"PRIxPA" size 0x%06zx flags %s%s\n",
111265137432SJens Wiklander 		      idx, width, va, width, pa, sz, flags_str, desc);
111365137432SJens Wiklander }
111465137432SJens Wiklander 
11156720dd49SJens Wiklander static bool get_next_in_order(struct ta_elf_queue *elf_queue,
11166720dd49SJens Wiklander 			      struct ta_elf **elf, struct segment **seg,
11176720dd49SJens Wiklander 			      size_t *elf_idx)
11186720dd49SJens Wiklander {
11196720dd49SJens Wiklander 	struct ta_elf *e = NULL;
11206720dd49SJens Wiklander 	struct segment *s = NULL;
11216720dd49SJens Wiklander 	size_t idx = 0;
11226720dd49SJens Wiklander 	vaddr_t va = 0;
11236720dd49SJens Wiklander 	struct ta_elf *e2 = NULL;
11246720dd49SJens Wiklander 	size_t i2 = 0;
11256720dd49SJens Wiklander 
11266720dd49SJens Wiklander 	assert(elf && seg && elf_idx);
11276720dd49SJens Wiklander 	e = *elf;
11286720dd49SJens Wiklander 	s = *seg;
11296720dd49SJens Wiklander 	assert((e == NULL && s == NULL) || (e != NULL && s != NULL));
11306720dd49SJens Wiklander 
11316720dd49SJens Wiklander 	if (s) {
11326720dd49SJens Wiklander 		s = TAILQ_NEXT(s, link);
11336720dd49SJens Wiklander 		if (s) {
11346720dd49SJens Wiklander 			*seg = s;
11356720dd49SJens Wiklander 			return true;
11366720dd49SJens Wiklander 		}
11376720dd49SJens Wiklander 	}
11386720dd49SJens Wiklander 
11396720dd49SJens Wiklander 	if (e)
11406720dd49SJens Wiklander 		va = e->load_addr;
11416720dd49SJens Wiklander 
11426720dd49SJens Wiklander 	/* Find the ELF with next load address */
11436720dd49SJens Wiklander 	e = NULL;
11446720dd49SJens Wiklander 	TAILQ_FOREACH(e2, elf_queue, link) {
11456720dd49SJens Wiklander 		if (e2->load_addr > va) {
11466720dd49SJens Wiklander 			if (!e || e2->load_addr < e->load_addr) {
11476720dd49SJens Wiklander 				e = e2;
11486720dd49SJens Wiklander 				idx = i2;
11496720dd49SJens Wiklander 			}
11506720dd49SJens Wiklander 		}
11516720dd49SJens Wiklander 		i2++;
11526720dd49SJens Wiklander 	}
11536720dd49SJens Wiklander 	if (!e)
11546720dd49SJens Wiklander 		return false;
11556720dd49SJens Wiklander 
11566720dd49SJens Wiklander 	*elf = e;
11576720dd49SJens Wiklander 	*seg = TAILQ_FIRST(&e->segs);
11586720dd49SJens Wiklander 	*elf_idx = idx;
11596720dd49SJens Wiklander 	return true;
11606720dd49SJens Wiklander }
11616720dd49SJens Wiklander 
1162c86f218cSJens Wiklander void ta_elf_print_mappings(void *pctx, print_func_t print_func,
1163c86f218cSJens Wiklander 			   struct ta_elf_queue *elf_queue, size_t num_maps,
116465137432SJens Wiklander 			   struct dump_map *maps, vaddr_t mpool_base)
116565137432SJens Wiklander {
116665137432SJens Wiklander 	struct segment *seg = NULL;
116765137432SJens Wiklander 	struct ta_elf *elf = NULL;
116865137432SJens Wiklander 	size_t elf_idx = 0;
116965137432SJens Wiklander 	size_t idx = 0;
117065137432SJens Wiklander 	size_t map_idx = 0;
117165137432SJens Wiklander 
117265137432SJens Wiklander 	/*
117365137432SJens Wiklander 	 * Loop over all segments and maps, printing virtual address in
117465137432SJens Wiklander 	 * order. Segment has priority if the virtual address is present
117565137432SJens Wiklander 	 * in both map and segment.
117665137432SJens Wiklander 	 */
11776720dd49SJens Wiklander 	get_next_in_order(elf_queue, &elf, &seg, &elf_idx);
117865137432SJens Wiklander 	while (true) {
117965137432SJens Wiklander 		vaddr_t va = -1;
118065137432SJens Wiklander 		size_t sz = 0;
118165137432SJens Wiklander 		uint32_t flags = DUMP_MAP_SECURE;
118265137432SJens Wiklander 		size_t offs = 0;
118365137432SJens Wiklander 
118465137432SJens Wiklander 		if (seg) {
118565137432SJens Wiklander 			va = rounddown(seg->vaddr + elf->load_addr);
118665137432SJens Wiklander 			sz = roundup(seg->vaddr + seg->memsz) -
118765137432SJens Wiklander 				     rounddown(seg->vaddr);
118865137432SJens Wiklander 		}
118965137432SJens Wiklander 
119065137432SJens Wiklander 		while (map_idx < num_maps && maps[map_idx].va <= va) {
119165137432SJens Wiklander 			uint32_t f = 0;
119265137432SJens Wiklander 
119365137432SJens Wiklander 			/* If there's a match, it should be the same map */
119465137432SJens Wiklander 			if (maps[map_idx].va == va) {
119565137432SJens Wiklander 				/*
119665137432SJens Wiklander 				 * In shared libraries the first page is
119765137432SJens Wiklander 				 * mapped separately with the rest of that
119865137432SJens Wiklander 				 * segment following back to back in a
119965137432SJens Wiklander 				 * separate entry.
120065137432SJens Wiklander 				 */
120165137432SJens Wiklander 				if (map_idx + 1 < num_maps &&
120265137432SJens Wiklander 				    maps[map_idx].sz == SMALL_PAGE_SIZE) {
120365137432SJens Wiklander 					vaddr_t next_va = maps[map_idx].va +
120465137432SJens Wiklander 							  maps[map_idx].sz;
120565137432SJens Wiklander 					size_t comb_sz = maps[map_idx].sz +
120665137432SJens Wiklander 							 maps[map_idx + 1].sz;
120765137432SJens Wiklander 
120865137432SJens Wiklander 					if (next_va == maps[map_idx + 1].va &&
120965137432SJens Wiklander 					    comb_sz == sz &&
121065137432SJens Wiklander 					    maps[map_idx].flags ==
121165137432SJens Wiklander 					    maps[map_idx + 1].flags) {
121265137432SJens Wiklander 						/* Skip this and next entry */
121365137432SJens Wiklander 						map_idx += 2;
121465137432SJens Wiklander 						continue;
121565137432SJens Wiklander 					}
121665137432SJens Wiklander 				}
121765137432SJens Wiklander 				assert(maps[map_idx].sz == sz);
121865137432SJens Wiklander 			} else if (maps[map_idx].va < va) {
121965137432SJens Wiklander 				if (maps[map_idx].va == mpool_base)
122065137432SJens Wiklander 					f |= DUMP_MAP_LDELF;
1221c86f218cSJens Wiklander 				print_seg(pctx, print_func, idx, -1,
1222c86f218cSJens Wiklander 					  maps[map_idx].va, maps[map_idx].pa,
1223c86f218cSJens Wiklander 					  maps[map_idx].sz,
122465137432SJens Wiklander 					  maps[map_idx].flags | f);
122565137432SJens Wiklander 				idx++;
122665137432SJens Wiklander 			}
122765137432SJens Wiklander 			map_idx++;
122865137432SJens Wiklander 		}
122965137432SJens Wiklander 
123065137432SJens Wiklander 		if (!seg)
123165137432SJens Wiklander 			break;
123265137432SJens Wiklander 
123365137432SJens Wiklander 		offs = rounddown(seg->offset);
123465137432SJens Wiklander 		if (seg->flags & PF_R)
123565137432SJens Wiklander 			flags |= DUMP_MAP_READ;
123665137432SJens Wiklander 		if (seg->flags & PF_W)
123765137432SJens Wiklander 			flags |= DUMP_MAP_WRITE;
123865137432SJens Wiklander 		if (seg->flags & PF_X)
123965137432SJens Wiklander 			flags |= DUMP_MAP_EXEC;
124065137432SJens Wiklander 
1241c86f218cSJens Wiklander 		print_seg(pctx, print_func, idx, elf_idx, va, offs, sz, flags);
124265137432SJens Wiklander 		idx++;
124365137432SJens Wiklander 
12446720dd49SJens Wiklander 		if (!get_next_in_order(elf_queue, &elf, &seg, &elf_idx))
12456720dd49SJens Wiklander 			seg = NULL;
124665137432SJens Wiklander 	}
124765137432SJens Wiklander 
124865137432SJens Wiklander 	elf_idx = 0;
124965137432SJens Wiklander 	TAILQ_FOREACH(elf, elf_queue, link) {
1250c86f218cSJens Wiklander 		print_wrapper(pctx, print_func,
1251c86f218cSJens Wiklander 			      " [%zu] %pUl @ 0x%0*"PRIxVA"\n",
125265137432SJens Wiklander 			      elf_idx, (void *)&elf->uuid, 8, elf->load_addr);
125365137432SJens Wiklander 		elf_idx++;
125465137432SJens Wiklander 	}
125565137432SJens Wiklander }
12560242833aSJens Wiklander 
12570242833aSJens Wiklander #ifdef CFG_UNWIND
12580242833aSJens Wiklander void ta_elf_stack_trace_a32(uint32_t regs[16])
12590242833aSJens Wiklander {
12600242833aSJens Wiklander 	struct unwind_state_arm32 state = { };
12610242833aSJens Wiklander 
12620242833aSJens Wiklander 	memcpy(state.registers, regs, sizeof(state.registers));
12630242833aSJens Wiklander 	print_stack_arm32(&state, ta_stack, ta_stack_size);
12640242833aSJens Wiklander }
12650242833aSJens Wiklander 
12660242833aSJens Wiklander void ta_elf_stack_trace_a64(uint64_t fp, uint64_t sp, uint64_t pc)
12670242833aSJens Wiklander {
12680242833aSJens Wiklander 	struct unwind_state_arm64 state = { .fp = fp, .sp = sp, .pc = pc };
12690242833aSJens Wiklander 
12700242833aSJens Wiklander 	print_stack_arm64(&state, ta_stack, ta_stack_size);
12710242833aSJens Wiklander }
12720242833aSJens Wiklander #endif
1273ebef121cSJerome Forissier 
1274ebef121cSJerome Forissier TEE_Result ta_elf_add_library(const TEE_UUID *uuid)
1275ebef121cSJerome Forissier {
1276ebef121cSJerome Forissier 	struct ta_elf *ta = TAILQ_FIRST(&main_elf_queue);
1277ebef121cSJerome Forissier 	struct ta_elf *lib = ta_elf_find_elf(uuid);
1278ebef121cSJerome Forissier 	struct ta_elf *elf = NULL;
1279ebef121cSJerome Forissier 
1280ebef121cSJerome Forissier 	if (lib)
1281ebef121cSJerome Forissier 		return TEE_SUCCESS; /* Already mapped */
1282ebef121cSJerome Forissier 
1283ebef121cSJerome Forissier 	lib = queue_elf_helper(uuid);
1284ebef121cSJerome Forissier 	if (!lib)
1285ebef121cSJerome Forissier 		return TEE_ERROR_OUT_OF_MEMORY;
1286ebef121cSJerome Forissier 
1287ebef121cSJerome Forissier 	for (elf = lib; elf; elf = TAILQ_NEXT(elf, link))
1288ebef121cSJerome Forissier 		ta_elf_load_dependency(elf, ta->is_32bit);
1289ebef121cSJerome Forissier 
1290ebef121cSJerome Forissier 	for (elf = lib; elf; elf = TAILQ_NEXT(elf, link)) {
1291ebef121cSJerome Forissier 		ta_elf_relocate(elf);
1292ebef121cSJerome Forissier 		ta_elf_finalize_mappings(elf);
1293ebef121cSJerome Forissier 	}
1294ebef121cSJerome Forissier 
1295ebef121cSJerome Forissier 	for (elf = lib; elf; elf = TAILQ_NEXT(elf, link))
1296ebef121cSJerome Forissier 		DMSG("ELF (%pUl) at %#"PRIxVA,
1297ebef121cSJerome Forissier 		     (void *)&elf->uuid, elf->load_addr);
1298ebef121cSJerome Forissier 
1299dd655cb9SJerome Forissier 	return ta_elf_set_init_fini_info(ta->is_32bit);
1300dd655cb9SJerome Forissier }
1301dd655cb9SJerome Forissier 
1302dd655cb9SJerome Forissier /* Get address/size of .init_array and .fini_array from the dynamic segment */
1303dd655cb9SJerome Forissier static void get_init_fini_array(struct ta_elf *elf, unsigned int type,
1304dd655cb9SJerome Forissier 				vaddr_t addr, size_t memsz, vaddr_t *init,
1305dd655cb9SJerome Forissier 				size_t *init_cnt, vaddr_t *fini,
1306dd655cb9SJerome Forissier 				size_t *fini_cnt)
1307dd655cb9SJerome Forissier {
1308dd655cb9SJerome Forissier 	size_t addrsz = 0;
1309dd655cb9SJerome Forissier 	size_t dyn_entsize = 0;
1310dd655cb9SJerome Forissier 	size_t num_dyns = 0;
1311dd655cb9SJerome Forissier 	size_t n = 0;
1312dd655cb9SJerome Forissier 	unsigned int tag = 0;
1313dd655cb9SJerome Forissier 	size_t val = 0;
1314dd655cb9SJerome Forissier 
1315dd655cb9SJerome Forissier 	assert(type == PT_DYNAMIC);
1316dd655cb9SJerome Forissier 
1317bc1d13c1SJens Wiklander 	check_phdr_in_range(elf, type, addr, memsz);
1318bc1d13c1SJens Wiklander 
1319dd655cb9SJerome Forissier 	if (elf->is_32bit) {
1320dd655cb9SJerome Forissier 		dyn_entsize = sizeof(Elf32_Dyn);
1321dd655cb9SJerome Forissier 		addrsz = 4;
1322dd655cb9SJerome Forissier 	} else {
1323dd655cb9SJerome Forissier 		dyn_entsize = sizeof(Elf64_Dyn);
1324dd655cb9SJerome Forissier 		addrsz = 8;
1325dd655cb9SJerome Forissier 	}
1326dd655cb9SJerome Forissier 
1327dd655cb9SJerome Forissier 	assert(!(memsz % dyn_entsize));
1328dd655cb9SJerome Forissier 	num_dyns = memsz / dyn_entsize;
1329dd655cb9SJerome Forissier 
1330dd655cb9SJerome Forissier 	for (n = 0; n < num_dyns; n++) {
1331dd655cb9SJerome Forissier 		read_dyn(elf, addr, n, &tag, &val);
1332dd655cb9SJerome Forissier 		if (tag == DT_INIT_ARRAY)
1333dd655cb9SJerome Forissier 			*init = val + elf->load_addr;
1334dd655cb9SJerome Forissier 		else if (tag == DT_FINI_ARRAY)
1335dd655cb9SJerome Forissier 			*fini = val + elf->load_addr;
1336dd655cb9SJerome Forissier 		else if (tag == DT_INIT_ARRAYSZ)
1337dd655cb9SJerome Forissier 			*init_cnt = val / addrsz;
1338dd655cb9SJerome Forissier 		else if (tag == DT_FINI_ARRAYSZ)
1339dd655cb9SJerome Forissier 			*fini_cnt = val / addrsz;
1340dd655cb9SJerome Forissier 	}
1341dd655cb9SJerome Forissier }
1342dd655cb9SJerome Forissier 
1343dd655cb9SJerome Forissier /* Get address/size of .init_array and .fini_array in @elf (if present) */
1344dd655cb9SJerome Forissier static void elf_get_init_fini_array(struct ta_elf *elf, vaddr_t *init,
1345dd655cb9SJerome Forissier 				    size_t *init_cnt, vaddr_t *fini,
1346dd655cb9SJerome Forissier 				    size_t *fini_cnt)
1347dd655cb9SJerome Forissier {
1348dd655cb9SJerome Forissier 	size_t n = 0;
1349dd655cb9SJerome Forissier 
1350dd655cb9SJerome Forissier 	if (elf->is_32bit) {
1351dd655cb9SJerome Forissier 		Elf32_Phdr *phdr = elf->phdr;
1352dd655cb9SJerome Forissier 
1353dd655cb9SJerome Forissier 		for (n = 0; n < elf->e_phnum; n++) {
1354dd655cb9SJerome Forissier 			if (phdr[n].p_type == PT_DYNAMIC) {
1355dd655cb9SJerome Forissier 				get_init_fini_array(elf, phdr[n].p_type,
1356dd655cb9SJerome Forissier 						    phdr[n].p_vaddr,
1357dd655cb9SJerome Forissier 						    phdr[n].p_memsz,
1358dd655cb9SJerome Forissier 						    init, init_cnt, fini,
1359dd655cb9SJerome Forissier 						    fini_cnt);
1360dd655cb9SJerome Forissier 				return;
1361dd655cb9SJerome Forissier 			}
1362dd655cb9SJerome Forissier 		}
1363dd655cb9SJerome Forissier 	} else {
1364dd655cb9SJerome Forissier 		Elf64_Phdr *phdr = elf->phdr;
1365dd655cb9SJerome Forissier 
1366dd655cb9SJerome Forissier 		for (n = 0; n < elf->e_phnum; n++) {
1367dd655cb9SJerome Forissier 			if (phdr[n].p_type == PT_DYNAMIC) {
1368dd655cb9SJerome Forissier 				get_init_fini_array(elf, phdr[n].p_type,
1369dd655cb9SJerome Forissier 						    phdr[n].p_vaddr,
1370dd655cb9SJerome Forissier 						    phdr[n].p_memsz,
1371dd655cb9SJerome Forissier 						    init, init_cnt, fini,
1372dd655cb9SJerome Forissier 						    fini_cnt);
1373dd655cb9SJerome Forissier 				return;
1374dd655cb9SJerome Forissier 			}
1375dd655cb9SJerome Forissier 		}
1376dd655cb9SJerome Forissier 	}
1377dd655cb9SJerome Forissier }
1378dd655cb9SJerome Forissier 
1379dd655cb9SJerome Forissier static TEE_Result realloc_ifs(vaddr_t va, size_t cnt, bool is_32bit)
1380dd655cb9SJerome Forissier {
1381dd655cb9SJerome Forissier 	struct __init_fini_info32 *info32 = (struct __init_fini_info32 *)va;
1382dd655cb9SJerome Forissier 	struct __init_fini_info *info = (struct __init_fini_info *)va;
1383dd655cb9SJerome Forissier 	struct __init_fini32 *ifs32 = NULL;
1384dd655cb9SJerome Forissier 	struct __init_fini *ifs = NULL;
1385dd655cb9SJerome Forissier 	size_t prev_cnt = 0;
1386dd655cb9SJerome Forissier 	void *ptr = NULL;
1387dd655cb9SJerome Forissier 
1388dd655cb9SJerome Forissier 	if (is_32bit) {
1389dd655cb9SJerome Forissier 		ptr = (void *)(vaddr_t)info32->ifs;
1390dd655cb9SJerome Forissier 		ptr = realloc(ptr, cnt * sizeof(struct __init_fini32));
1391dd655cb9SJerome Forissier 		if (!ptr)
1392dd655cb9SJerome Forissier 			return TEE_ERROR_OUT_OF_MEMORY;
1393dd655cb9SJerome Forissier 		ifs32 = ptr;
1394dd655cb9SJerome Forissier 		prev_cnt = info32->size;
1395dd655cb9SJerome Forissier 		if (cnt > prev_cnt)
1396dd655cb9SJerome Forissier 			memset(ifs32 + prev_cnt, 0,
1397dd655cb9SJerome Forissier 			       (cnt - prev_cnt) * sizeof(*ifs32));
1398dd655cb9SJerome Forissier 		info32->ifs = (uint32_t)(vaddr_t)ifs32;
1399dd655cb9SJerome Forissier 		info32->size = cnt;
1400dd655cb9SJerome Forissier 	} else {
1401dd655cb9SJerome Forissier 		ptr = realloc(info->ifs, cnt * sizeof(struct __init_fini));
1402dd655cb9SJerome Forissier 		if (!ptr)
1403dd655cb9SJerome Forissier 			return TEE_ERROR_OUT_OF_MEMORY;
1404dd655cb9SJerome Forissier 		ifs = ptr;
1405dd655cb9SJerome Forissier 		prev_cnt = info->size;
1406dd655cb9SJerome Forissier 		if (cnt > prev_cnt)
1407dd655cb9SJerome Forissier 			memset(ifs + prev_cnt, 0,
1408dd655cb9SJerome Forissier 			       (cnt - prev_cnt) * sizeof(*ifs));
1409dd655cb9SJerome Forissier 		info->ifs = ifs;
1410dd655cb9SJerome Forissier 		info->size = cnt;
1411dd655cb9SJerome Forissier 	}
1412dd655cb9SJerome Forissier 
1413ebef121cSJerome Forissier 	return TEE_SUCCESS;
1414ebef121cSJerome Forissier }
1415dd655cb9SJerome Forissier 
1416dd655cb9SJerome Forissier static void fill_ifs(vaddr_t va, size_t idx, struct ta_elf *elf, bool is_32bit)
1417dd655cb9SJerome Forissier {
1418dd655cb9SJerome Forissier 	struct __init_fini_info32 *info32 = (struct __init_fini_info32 *)va;
1419dd655cb9SJerome Forissier 	struct __init_fini_info *info = (struct __init_fini_info *)va;
1420dd655cb9SJerome Forissier 	struct __init_fini32 *ifs32 = NULL;
1421dd655cb9SJerome Forissier 	struct __init_fini *ifs = NULL;
1422dd655cb9SJerome Forissier 	size_t init_cnt = 0;
1423dd655cb9SJerome Forissier 	size_t fini_cnt = 0;
1424dd655cb9SJerome Forissier 	vaddr_t init = 0;
1425dd655cb9SJerome Forissier 	vaddr_t fini = 0;
1426dd655cb9SJerome Forissier 
1427dd655cb9SJerome Forissier 	if (is_32bit) {
1428dd655cb9SJerome Forissier 		assert(idx < info32->size);
1429dd655cb9SJerome Forissier 		ifs32 = &((struct __init_fini32 *)(vaddr_t)info32->ifs)[idx];
1430dd655cb9SJerome Forissier 
1431dd655cb9SJerome Forissier 		if (ifs32->flags & __IFS_VALID)
1432dd655cb9SJerome Forissier 			return;
1433dd655cb9SJerome Forissier 
1434dd655cb9SJerome Forissier 		elf_get_init_fini_array(elf, &init, &init_cnt, &fini,
1435dd655cb9SJerome Forissier 					&fini_cnt);
1436dd655cb9SJerome Forissier 
1437dd655cb9SJerome Forissier 		ifs32->init = (uint32_t)init;
1438dd655cb9SJerome Forissier 		ifs32->init_size = init_cnt;
1439dd655cb9SJerome Forissier 
1440dd655cb9SJerome Forissier 		ifs32->fini = (uint32_t)fini;
1441dd655cb9SJerome Forissier 		ifs32->fini_size = fini_cnt;
1442dd655cb9SJerome Forissier 
1443dd655cb9SJerome Forissier 		ifs32->flags |= __IFS_VALID;
1444dd655cb9SJerome Forissier 	} else {
1445dd655cb9SJerome Forissier 		assert(idx < info->size);
1446dd655cb9SJerome Forissier 		ifs = &info->ifs[idx];
1447dd655cb9SJerome Forissier 
1448dd655cb9SJerome Forissier 		if (ifs->flags & __IFS_VALID)
1449dd655cb9SJerome Forissier 			return;
1450dd655cb9SJerome Forissier 
1451dd655cb9SJerome Forissier 		elf_get_init_fini_array(elf, &init, &init_cnt, &fini,
1452dd655cb9SJerome Forissier 					&fini_cnt);
1453dd655cb9SJerome Forissier 
1454dd655cb9SJerome Forissier 		ifs->init = (void (**)(void))init;
1455dd655cb9SJerome Forissier 		ifs->init_size = init_cnt;
1456dd655cb9SJerome Forissier 
1457dd655cb9SJerome Forissier 		ifs->fini = (void (**)(void))fini;
1458dd655cb9SJerome Forissier 		ifs->fini_size = fini_cnt;
1459dd655cb9SJerome Forissier 
1460dd655cb9SJerome Forissier 		ifs->flags |= __IFS_VALID;
1461dd655cb9SJerome Forissier 	}
1462dd655cb9SJerome Forissier }
1463dd655cb9SJerome Forissier 
1464dd655cb9SJerome Forissier /*
1465dd655cb9SJerome Forissier  * Set or update __init_fini_info in the TA with information from the ELF
1466dd655cb9SJerome Forissier  * queue
1467dd655cb9SJerome Forissier  */
1468dd655cb9SJerome Forissier TEE_Result ta_elf_set_init_fini_info(bool is_32bit)
1469dd655cb9SJerome Forissier {
1470dd655cb9SJerome Forissier 	struct __init_fini_info *info = NULL;
1471dd655cb9SJerome Forissier 	TEE_Result res = TEE_SUCCESS;
1472dd655cb9SJerome Forissier 	struct ta_elf *elf = NULL;
1473dd655cb9SJerome Forissier 	vaddr_t info_va = 0;
1474dd655cb9SJerome Forissier 	size_t cnt = 0;
1475dd655cb9SJerome Forissier 
1476dd655cb9SJerome Forissier 	res = ta_elf_resolve_sym("__init_fini_info", &info_va, NULL);
1477dd655cb9SJerome Forissier 	if (res) {
1478dd655cb9SJerome Forissier 		if (res == TEE_ERROR_ITEM_NOT_FOUND) {
1479dd655cb9SJerome Forissier 			/* Older TA */
1480dd655cb9SJerome Forissier 			return TEE_SUCCESS;
1481dd655cb9SJerome Forissier 		}
1482dd655cb9SJerome Forissier 		return res;
1483dd655cb9SJerome Forissier 	}
1484dd655cb9SJerome Forissier 	assert(info_va);
1485dd655cb9SJerome Forissier 
1486dd655cb9SJerome Forissier 	info = (struct __init_fini_info *)info_va;
1487dd655cb9SJerome Forissier 	if (info->reserved)
1488dd655cb9SJerome Forissier 		return TEE_ERROR_NOT_SUPPORTED;
1489dd655cb9SJerome Forissier 
1490dd655cb9SJerome Forissier 	TAILQ_FOREACH(elf, &main_elf_queue, link)
1491dd655cb9SJerome Forissier 		cnt++;
1492dd655cb9SJerome Forissier 
1493dd655cb9SJerome Forissier 	/* Queue has at least one file (main) */
1494dd655cb9SJerome Forissier 	assert(cnt);
1495dd655cb9SJerome Forissier 
1496dd655cb9SJerome Forissier 	res = realloc_ifs(info_va, cnt, is_32bit);
1497dd655cb9SJerome Forissier 	if (res)
1498dd655cb9SJerome Forissier 		goto err;
1499dd655cb9SJerome Forissier 
1500dd655cb9SJerome Forissier 	cnt = 0;
1501dd655cb9SJerome Forissier 	TAILQ_FOREACH(elf, &main_elf_queue, link) {
1502dd655cb9SJerome Forissier 		fill_ifs(info_va, cnt, elf, is_32bit);
1503dd655cb9SJerome Forissier 		cnt++;
1504dd655cb9SJerome Forissier 	}
1505dd655cb9SJerome Forissier 
1506dd655cb9SJerome Forissier 	return TEE_SUCCESS;
1507dd655cb9SJerome Forissier err:
1508dd655cb9SJerome Forissier 	free(info);
1509dd655cb9SJerome Forissier 	return res;
1510dd655cb9SJerome Forissier }
1511