1*0d3fdb15SChristoph Hellwig /* SPDX-License-Identifier: GPL-2.0 */ 2*0d3fdb15SChristoph Hellwig #ifndef _LINUX_IOMMU_COMMON_H 3*0d3fdb15SChristoph Hellwig #define _LINUX_IOMMU_COMMON_H 4*0d3fdb15SChristoph Hellwig 5*0d3fdb15SChristoph Hellwig #include <linux/spinlock_types.h> 6*0d3fdb15SChristoph Hellwig #include <linux/device.h> 7*0d3fdb15SChristoph Hellwig #include <asm/page.h> 8*0d3fdb15SChristoph Hellwig 9*0d3fdb15SChristoph Hellwig #define IOMMU_POOL_HASHBITS 4 10*0d3fdb15SChristoph Hellwig #define IOMMU_NR_POOLS (1 << IOMMU_POOL_HASHBITS) 11*0d3fdb15SChristoph Hellwig #define IOMMU_ERROR_CODE (~(unsigned long) 0) 12*0d3fdb15SChristoph Hellwig 13*0d3fdb15SChristoph Hellwig struct iommu_pool { 14*0d3fdb15SChristoph Hellwig unsigned long start; 15*0d3fdb15SChristoph Hellwig unsigned long end; 16*0d3fdb15SChristoph Hellwig unsigned long hint; 17*0d3fdb15SChristoph Hellwig spinlock_t lock; 18*0d3fdb15SChristoph Hellwig }; 19*0d3fdb15SChristoph Hellwig 20*0d3fdb15SChristoph Hellwig struct iommu_map_table { 21*0d3fdb15SChristoph Hellwig unsigned long table_map_base; 22*0d3fdb15SChristoph Hellwig unsigned long table_shift; 23*0d3fdb15SChristoph Hellwig unsigned long nr_pools; 24*0d3fdb15SChristoph Hellwig void (*lazy_flush)(struct iommu_map_table *); 25*0d3fdb15SChristoph Hellwig unsigned long poolsize; 26*0d3fdb15SChristoph Hellwig struct iommu_pool pools[IOMMU_NR_POOLS]; 27*0d3fdb15SChristoph Hellwig u32 flags; 28*0d3fdb15SChristoph Hellwig #define IOMMU_HAS_LARGE_POOL 0x00000001 29*0d3fdb15SChristoph Hellwig #define IOMMU_NO_SPAN_BOUND 0x00000002 30*0d3fdb15SChristoph Hellwig #define IOMMU_NEED_FLUSH 0x00000004 31*0d3fdb15SChristoph Hellwig struct iommu_pool large_pool; 32*0d3fdb15SChristoph Hellwig unsigned long *map; 33*0d3fdb15SChristoph Hellwig }; 34*0d3fdb15SChristoph Hellwig 35*0d3fdb15SChristoph Hellwig extern void iommu_tbl_pool_init(struct iommu_map_table *iommu, 36*0d3fdb15SChristoph Hellwig unsigned long num_entries, 37*0d3fdb15SChristoph Hellwig u32 table_shift, 38*0d3fdb15SChristoph Hellwig void (*lazy_flush)(struct iommu_map_table *), 39*0d3fdb15SChristoph Hellwig bool large_pool, u32 npools, 40*0d3fdb15SChristoph Hellwig bool skip_span_boundary_check); 41*0d3fdb15SChristoph Hellwig 42*0d3fdb15SChristoph Hellwig extern unsigned long iommu_tbl_range_alloc(struct device *dev, 43*0d3fdb15SChristoph Hellwig struct iommu_map_table *iommu, 44*0d3fdb15SChristoph Hellwig unsigned long npages, 45*0d3fdb15SChristoph Hellwig unsigned long *handle, 46*0d3fdb15SChristoph Hellwig unsigned long mask, 47*0d3fdb15SChristoph Hellwig unsigned int align_order); 48*0d3fdb15SChristoph Hellwig 49*0d3fdb15SChristoph Hellwig extern void iommu_tbl_range_free(struct iommu_map_table *iommu, 50*0d3fdb15SChristoph Hellwig u64 dma_addr, unsigned long npages, 51*0d3fdb15SChristoph Hellwig unsigned long entry); 52*0d3fdb15SChristoph Hellwig 53*0d3fdb15SChristoph Hellwig #endif 54