MALI: rockchip: linux: upgrade to DDK r13p0-00rel0
[firefly-linux-kernel-4.4.55.git] / drivers / gpu / arm / midgard_for_linux / mali_kbase_mem.h
1 /*
2  *
3  * (C) COPYRIGHT 2010-2016 ARM Limited. All rights reserved.
4  *
5  * This program is free software and is provided to you under the terms of the
6  * GNU General Public License version 2 as published by the Free Software
7  * Foundation, and any use by you of this program is subject to the terms
8  * of such GNU licence.
9  *
10  * A copy of the licence is included with the program, and can also be obtained
11  * from Free Software Foundation, Inc., 51 Franklin Street, Fifth Floor,
12  * Boston, MA  02110-1301, USA.
13  *
14  */
15
16
17
18
19
20 /**
21  * @file mali_kbase_mem.h
22  * Base kernel memory APIs
23  */
24
25 #ifndef _KBASE_MEM_H_
26 #define _KBASE_MEM_H_
27
28 #ifndef _KBASE_H_
29 #error "Don't include this file directly, use mali_kbase.h instead"
30 #endif
31
32 #include <linux/kref.h>
33 #ifdef CONFIG_KDS
34 #include <linux/kds.h>
35 #endif                          /* CONFIG_KDS */
36 #ifdef CONFIG_UMP
37 #include <linux/ump.h>
38 #endif                          /* CONFIG_UMP */
39 #include "mali_base_kernel.h"
40 #include <mali_kbase_hw.h>
41 #include "mali_kbase_pm.h"
42 #include "mali_kbase_defs.h"
43 #if defined(CONFIG_MALI_GATOR_SUPPORT)
44 #include "mali_kbase_gator.h"
45 #endif
46 /* Required for kbase_mem_evictable_unmake */
47 #include "mali_kbase_mem_linux.h"
48
49 /* Part of the workaround for uTLB invalid pages is to ensure we grow/shrink tmem by 4 pages at a time */
50 #define KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_LOG2_HW_ISSUE_8316 (2)     /* round to 4 pages */
51
52 /* Part of the workaround for PRLAM-9630 requires us to grow/shrink memory by 8 pages.
53 The MMU reads in 8 page table entries from memory at a time, if we have more than one page fault within the same 8 pages and
54 page tables are updated accordingly, the MMU does not re-read the page table entries from memory for the subsequent page table
55 updates and generates duplicate page faults as the page table information used by the MMU is not valid.   */
56 #define KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_LOG2_HW_ISSUE_9630 (3)     /* round to 8 pages */
57
58 #define KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_LOG2 (0)   /* round to 1 page */
59
60 /* This must always be a power of 2 */
61 #define KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES (1u << KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_LOG2)
62 #define KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_HW_ISSUE_8316 (1u << KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_LOG2_HW_ISSUE_8316)
63 #define KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_HW_ISSUE_9630 (1u << KBASEP_TMEM_GROWABLE_BLOCKSIZE_PAGES_LOG2_HW_ISSUE_9630)
64 /**
65  * A CPU mapping
66  */
67 struct kbase_cpu_mapping {
68         struct   list_head mappings_list;
69         struct   kbase_mem_phy_alloc *alloc;
70         struct   kbase_context *kctx;
71         struct   kbase_va_region *region;
72         pgoff_t  page_off;
73         int      count;
74         unsigned long vm_start;
75         unsigned long vm_end;
76 };
77
78 enum kbase_memory_type {
79         KBASE_MEM_TYPE_NATIVE,
80         KBASE_MEM_TYPE_IMPORTED_UMP,
81         KBASE_MEM_TYPE_IMPORTED_UMM,
82         KBASE_MEM_TYPE_IMPORTED_USER_BUF,
83         KBASE_MEM_TYPE_ALIAS,
84         KBASE_MEM_TYPE_TB,
85         KBASE_MEM_TYPE_RAW
86 };
87
88 /* internal structure, mirroring base_mem_aliasing_info,
89  * but with alloc instead of a gpu va (handle) */
90 struct kbase_aliased {
91         struct kbase_mem_phy_alloc *alloc; /* NULL for special, non-NULL for native */
92         u64 offset; /* in pages */
93         u64 length; /* in pages */
94 };
95
96 /**
97  * @brief Physical pages tracking object properties
98   */
99 #define KBASE_MEM_PHY_ALLOC_ACCESSED_CACHED  (1ul << 0)
100 #define KBASE_MEM_PHY_ALLOC_LARGE            (1ul << 1)
101
102 /* physical pages tracking object.
103  * Set up to track N pages.
104  * N not stored here, the creator holds that info.
105  * This object only tracks how many elements are actually valid (present).
106  * Changing of nents or *pages should only happen if the kbase_mem_phy_alloc is not
107  * shared with another region or client. CPU mappings are OK to exist when changing, as
108  * long as the tracked mappings objects are updated as part of the change.
109  */
110 struct kbase_mem_phy_alloc {
111         struct kref           kref; /* number of users of this alloc */
112         atomic_t              gpu_mappings;
113         size_t                nents; /* 0..N */
114         phys_addr_t           *pages; /* N elements, only 0..nents are valid */
115
116         /* kbase_cpu_mappings */
117         struct list_head      mappings;
118
119         /* Node used to store this allocation on the eviction list */
120         struct list_head      evict_node;
121         /* Physical backing size when the pages where evicted */
122         size_t                evicted;
123         /*
124          * Back reference to the region structure which created this
125          * allocation, or NULL if it has been freed.
126          */
127         struct kbase_va_region *reg;
128
129         /* type of buffer */
130         enum kbase_memory_type type;
131
132         unsigned long properties;
133
134         struct list_head       zone_cache;
135
136         /* member in union valid based on @a type */
137         union {
138 #ifdef CONFIG_UMP
139                 ump_dd_handle ump_handle;
140 #endif /* CONFIG_UMP */
141 #if defined(CONFIG_DMA_SHARED_BUFFER)
142                 struct {
143                         struct dma_buf *dma_buf;
144                         struct dma_buf_attachment *dma_attachment;
145                         unsigned int current_mapping_usage_count;
146                         struct sg_table *sgt;
147                 } umm;
148 #endif /* defined(CONFIG_DMA_SHARED_BUFFER) */
149                 struct {
150                         u64 stride;
151                         size_t nents;
152                         struct kbase_aliased *aliased;
153                 } alias;
154                 /* Used by type = (KBASE_MEM_TYPE_NATIVE, KBASE_MEM_TYPE_TB) */
155                 struct kbase_context *kctx;
156                 struct {
157                         unsigned long address;
158                         unsigned long size;
159                         unsigned long nr_pages;
160                         struct page **pages;
161                         unsigned int current_mapping_usage_count;
162                         struct mm_struct *mm;
163                         dma_addr_t *dma_addrs;
164                 } user_buf;
165         } imported;
166 };
167
168 static inline void kbase_mem_phy_alloc_gpu_mapped(struct kbase_mem_phy_alloc *alloc)
169 {
170         KBASE_DEBUG_ASSERT(alloc);
171         /* we only track mappings of NATIVE buffers */
172         if (alloc->type == KBASE_MEM_TYPE_NATIVE)
173                 atomic_inc(&alloc->gpu_mappings);
174 }
175
176 static inline void kbase_mem_phy_alloc_gpu_unmapped(struct kbase_mem_phy_alloc *alloc)
177 {
178         KBASE_DEBUG_ASSERT(alloc);
179         /* we only track mappings of NATIVE buffers */
180         if (alloc->type == KBASE_MEM_TYPE_NATIVE)
181                 if (0 > atomic_dec_return(&alloc->gpu_mappings)) {
182                         pr_err("Mismatched %s:\n", __func__);
183                         dump_stack();
184                 }
185 }
186
187 void kbase_mem_kref_free(struct kref *kref);
188
189 int kbase_mem_init(struct kbase_device *kbdev);
190 void kbase_mem_halt(struct kbase_device *kbdev);
191 void kbase_mem_term(struct kbase_device *kbdev);
192
193 static inline struct kbase_mem_phy_alloc *kbase_mem_phy_alloc_get(struct kbase_mem_phy_alloc *alloc)
194 {
195         kref_get(&alloc->kref);
196         return alloc;
197 }
198
199 static inline struct kbase_mem_phy_alloc *kbase_mem_phy_alloc_put(struct kbase_mem_phy_alloc *alloc)
200 {
201         kref_put(&alloc->kref, kbase_mem_kref_free);
202         return NULL;
203 }
204
205 /**
206  * A GPU memory region, and attributes for CPU mappings.
207  */
208 struct kbase_va_region {
209         struct rb_node rblink;
210         struct list_head link;
211
212         struct kbase_context *kctx;     /* Backlink to base context */
213
214         u64 start_pfn;          /* The PFN in GPU space */
215         size_t nr_pages;
216
217 /* Free region */
218 #define KBASE_REG_FREE              (1ul << 0)
219 /* CPU write access */
220 #define KBASE_REG_CPU_WR            (1ul << 1)
221 /* GPU write access */
222 #define KBASE_REG_GPU_WR            (1ul << 2)
223 /* No eXecute flag */
224 #define KBASE_REG_GPU_NX            (1ul << 3)
225 /* Is CPU cached? */
226 #define KBASE_REG_CPU_CACHED        (1ul << 4)
227 /* Is GPU cached? */
228 #define KBASE_REG_GPU_CACHED        (1ul << 5)
229
230 #define KBASE_REG_GROWABLE          (1ul << 6)
231 /* Can grow on pf? */
232 #define KBASE_REG_PF_GROW           (1ul << 7)
233
234 /* VA managed by us */
235 #define KBASE_REG_CUSTOM_VA         (1ul << 8)
236
237 /* inner shareable coherency */
238 #define KBASE_REG_SHARE_IN          (1ul << 9)
239 /* inner & outer shareable coherency */
240 #define KBASE_REG_SHARE_BOTH        (1ul << 10)
241
242 /* Space for 4 different zones */
243 #define KBASE_REG_ZONE_MASK         (3ul << 11)
244 #define KBASE_REG_ZONE(x)           (((x) & 3) << 11)
245
246 /* GPU read access */
247 #define KBASE_REG_GPU_RD            (1ul<<13)
248 /* CPU read access */
249 #define KBASE_REG_CPU_RD            (1ul<<14)
250
251 /* Aligned for GPU EX in SAME_VA */
252 #define KBASE_REG_ALIGNED           (1ul<<15)
253
254 /* Index of chosen MEMATTR for this region (0..7) */
255 #define KBASE_REG_MEMATTR_MASK      (7ul << 16)
256 #define KBASE_REG_MEMATTR_INDEX(x)  (((x) & 7) << 16)
257 #define KBASE_REG_MEMATTR_VALUE(x)  (((x) & KBASE_REG_MEMATTR_MASK) >> 16)
258
259 #define KBASE_REG_SECURE            (1ul << 19)
260
261 #define KBASE_REG_DONT_NEED         (1ul << 20)
262
263 #define KBASE_REG_ZONE_SAME_VA      KBASE_REG_ZONE(0)
264
265 /* only used with 32-bit clients */
266 /*
267  * On a 32bit platform, custom VA should be wired from (4GB + shader region)
268  * to the VA limit of the GPU. Unfortunately, the Linux mmap() interface
269  * limits us to 2^32 pages (2^44 bytes, see mmap64 man page for reference).
270  * So we put the default limit to the maximum possible on Linux and shrink
271  * it down, if required by the GPU, during initialization.
272  */
273
274 /*
275  * Dedicated 16MB region for shader code:
276  * VA range 0x101000000-0x102000000
277  */
278 #define KBASE_REG_ZONE_EXEC         KBASE_REG_ZONE(1)
279 #define KBASE_REG_ZONE_EXEC_BASE    (0x101000000ULL >> PAGE_SHIFT)
280 #define KBASE_REG_ZONE_EXEC_SIZE    ((16ULL * 1024 * 1024) >> PAGE_SHIFT)
281
282 #define KBASE_REG_ZONE_CUSTOM_VA         KBASE_REG_ZONE(2)
283 #define KBASE_REG_ZONE_CUSTOM_VA_BASE    (KBASE_REG_ZONE_EXEC_BASE + KBASE_REG_ZONE_EXEC_SIZE) /* Starting after KBASE_REG_ZONE_EXEC */
284 #define KBASE_REG_ZONE_CUSTOM_VA_SIZE    (((1ULL << 44) >> PAGE_SHIFT) - KBASE_REG_ZONE_CUSTOM_VA_BASE)
285 /* end 32-bit clients only */
286
287         unsigned long flags;
288
289         size_t extent; /* nr of pages alloc'd on PF */
290
291         struct kbase_mem_phy_alloc *cpu_alloc; /* the one alloc object we mmap to the CPU when mapping this region */
292         struct kbase_mem_phy_alloc *gpu_alloc; /* the one alloc object we mmap to the GPU when mapping this region */
293
294         /* non-NULL if this memory object is a kds_resource */
295         struct kds_resource *kds_res;
296
297         /* List head used to store the region in the JIT allocation pool */
298         struct list_head jit_node;
299 };
300
301 /* Common functions */
302 static inline phys_addr_t *kbase_get_cpu_phy_pages(struct kbase_va_region *reg)
303 {
304         KBASE_DEBUG_ASSERT(reg);
305         KBASE_DEBUG_ASSERT(reg->cpu_alloc);
306         KBASE_DEBUG_ASSERT(reg->gpu_alloc);
307         KBASE_DEBUG_ASSERT(reg->cpu_alloc->nents == reg->gpu_alloc->nents);
308
309         return reg->cpu_alloc->pages;
310 }
311
312 static inline phys_addr_t *kbase_get_gpu_phy_pages(struct kbase_va_region *reg)
313 {
314         KBASE_DEBUG_ASSERT(reg);
315         KBASE_DEBUG_ASSERT(reg->cpu_alloc);
316         KBASE_DEBUG_ASSERT(reg->gpu_alloc);
317         KBASE_DEBUG_ASSERT(reg->cpu_alloc->nents == reg->gpu_alloc->nents);
318
319         return reg->gpu_alloc->pages;
320 }
321
322 static inline size_t kbase_reg_current_backed_size(struct kbase_va_region *reg)
323 {
324         KBASE_DEBUG_ASSERT(reg);
325         /* if no alloc object the backed size naturally is 0 */
326         if (!reg->cpu_alloc)
327                 return 0;
328
329         KBASE_DEBUG_ASSERT(reg->cpu_alloc);
330         KBASE_DEBUG_ASSERT(reg->gpu_alloc);
331         KBASE_DEBUG_ASSERT(reg->cpu_alloc->nents == reg->gpu_alloc->nents);
332
333         return reg->cpu_alloc->nents;
334 }
335
336 #define KBASE_MEM_PHY_ALLOC_LARGE_THRESHOLD ((size_t)(4*1024)) /* size above which vmalloc is used over kmalloc */
337
338 static inline struct kbase_mem_phy_alloc *kbase_alloc_create(size_t nr_pages, enum kbase_memory_type type)
339 {
340         struct kbase_mem_phy_alloc *alloc;
341         size_t alloc_size = sizeof(*alloc) + sizeof(*alloc->pages) * nr_pages;
342         size_t per_page_size = sizeof(*alloc->pages);
343
344         /* Imported pages may have page private data already in use */
345         if (type == KBASE_MEM_TYPE_IMPORTED_USER_BUF) {
346                 alloc_size += nr_pages *
347                                 sizeof(*alloc->imported.user_buf.dma_addrs);
348                 per_page_size += sizeof(*alloc->imported.user_buf.dma_addrs);
349         }
350
351         /*
352          * Prevent nr_pages*per_page_size + sizeof(*alloc) from
353          * wrapping around.
354          */
355         if (nr_pages > ((((size_t) -1) - sizeof(*alloc))
356                         / per_page_size))
357                 return ERR_PTR(-ENOMEM);
358
359         /* Allocate based on the size to reduce internal fragmentation of vmem */
360         if (alloc_size > KBASE_MEM_PHY_ALLOC_LARGE_THRESHOLD)
361                 alloc = vzalloc(alloc_size);
362         else
363                 alloc = kzalloc(alloc_size, GFP_KERNEL);
364
365         if (!alloc)
366                 return ERR_PTR(-ENOMEM);
367
368         /* Store allocation method */
369         if (alloc_size > KBASE_MEM_PHY_ALLOC_LARGE_THRESHOLD)
370                 alloc->properties |= KBASE_MEM_PHY_ALLOC_LARGE;
371
372         kref_init(&alloc->kref);
373         atomic_set(&alloc->gpu_mappings, 0);
374         alloc->nents = 0;
375         alloc->pages = (void *)(alloc + 1);
376         INIT_LIST_HEAD(&alloc->mappings);
377         alloc->type = type;
378         INIT_LIST_HEAD(&alloc->zone_cache);
379
380         if (type == KBASE_MEM_TYPE_IMPORTED_USER_BUF)
381                 alloc->imported.user_buf.dma_addrs =
382                                 (void *) (alloc->pages + nr_pages);
383
384         return alloc;
385 }
386
387 static inline int kbase_reg_prepare_native(struct kbase_va_region *reg,
388                 struct kbase_context *kctx)
389 {
390         KBASE_DEBUG_ASSERT(reg);
391         KBASE_DEBUG_ASSERT(!reg->cpu_alloc);
392         KBASE_DEBUG_ASSERT(!reg->gpu_alloc);
393         KBASE_DEBUG_ASSERT(reg->flags & KBASE_REG_FREE);
394
395         reg->cpu_alloc = kbase_alloc_create(reg->nr_pages,
396                         KBASE_MEM_TYPE_NATIVE);
397         if (IS_ERR(reg->cpu_alloc))
398                 return PTR_ERR(reg->cpu_alloc);
399         else if (!reg->cpu_alloc)
400                 return -ENOMEM;
401         reg->cpu_alloc->imported.kctx = kctx;
402         INIT_LIST_HEAD(&reg->cpu_alloc->evict_node);
403         if (kctx->infinite_cache_active && (reg->flags & KBASE_REG_CPU_CACHED)) {
404                 reg->gpu_alloc = kbase_alloc_create(reg->nr_pages,
405                                 KBASE_MEM_TYPE_NATIVE);
406                 reg->gpu_alloc->imported.kctx = kctx;
407                 INIT_LIST_HEAD(&reg->gpu_alloc->evict_node);
408         } else {
409                 reg->gpu_alloc = kbase_mem_phy_alloc_get(reg->cpu_alloc);
410         }
411
412         INIT_LIST_HEAD(&reg->jit_node);
413         reg->flags &= ~KBASE_REG_FREE;
414         return 0;
415 }
416
417 static inline int kbase_atomic_add_pages(int num_pages, atomic_t *used_pages)
418 {
419         int new_val = atomic_add_return(num_pages, used_pages);
420 #if defined(CONFIG_MALI_GATOR_SUPPORT)
421         kbase_trace_mali_total_alloc_pages_change((long long int)new_val);
422 #endif
423         return new_val;
424 }
425
426 static inline int kbase_atomic_sub_pages(int num_pages, atomic_t *used_pages)
427 {
428         int new_val = atomic_sub_return(num_pages, used_pages);
429 #if defined(CONFIG_MALI_GATOR_SUPPORT)
430         kbase_trace_mali_total_alloc_pages_change((long long int)new_val);
431 #endif
432         return new_val;
433 }
434
435 /*
436  * Max size for kbdev memory pool (in pages)
437  */
438 #define KBASE_MEM_POOL_MAX_SIZE_KBDEV (SZ_64M >> PAGE_SHIFT)
439
440 /*
441  * Max size for kctx memory pool (in pages)
442  */
443 #define KBASE_MEM_POOL_MAX_SIZE_KCTX  (SZ_64M >> PAGE_SHIFT)
444
445 /**
446  * kbase_mem_pool_init - Create a memory pool for a kbase device
447  * @pool:      Memory pool to initialize
448  * @max_size:  Maximum number of free pages the pool can hold
449  * @kbdev:     Kbase device where memory is used
450  * @next_pool: Pointer to the next pool or NULL.
451  *
452  * Allocations from @pool are in whole pages. Each @pool has a free list where
453  * pages can be quickly allocated from. The free list is initially empty and
454  * filled whenever pages are freed back to the pool. The number of free pages
455  * in the pool will in general not exceed @max_size, but the pool may in
456  * certain corner cases grow above @max_size.
457  *
458  * If @next_pool is not NULL, we will allocate from @next_pool before going to
459  * the kernel allocator. Similarily pages can spill over to @next_pool when
460  * @pool is full. Pages are zeroed before they spill over to another pool, to
461  * prevent leaking information between applications.
462  *
463  * A shrinker is registered so that Linux mm can reclaim pages from the pool as
464  * needed.
465  *
466  * Return: 0 on success, negative -errno on error
467  */
468 int kbase_mem_pool_init(struct kbase_mem_pool *pool,
469                 size_t max_size,
470                 struct kbase_device *kbdev,
471                 struct kbase_mem_pool *next_pool);
472
473 /**
474  * kbase_mem_pool_term - Destroy a memory pool
475  * @pool:  Memory pool to destroy
476  *
477  * Pages in the pool will spill over to @next_pool (if available) or freed to
478  * the kernel.
479  */
480 void kbase_mem_pool_term(struct kbase_mem_pool *pool);
481
482 /**
483  * kbase_mem_pool_alloc - Allocate a page from memory pool
484  * @pool:  Memory pool to allocate from
485  *
486  * Allocations from the pool are made as follows:
487  * 1. If there are free pages in the pool, allocate a page from @pool.
488  * 2. Otherwise, if @next_pool is not NULL and has free pages, allocate a page
489  *    from @next_pool.
490  * 3. Finally, allocate a page from the kernel.
491  *
492  * Return: Pointer to allocated page, or NULL if allocation failed.
493  */
494 struct page *kbase_mem_pool_alloc(struct kbase_mem_pool *pool);
495
496 /**
497  * kbase_mem_pool_free - Free a page to memory pool
498  * @pool:  Memory pool where page should be freed
499  * @page:  Page to free to the pool
500  * @dirty: Whether some of the page may be dirty in the cache.
501  *
502  * Pages are freed to the pool as follows:
503  * 1. If @pool is not full, add @page to @pool.
504  * 2. Otherwise, if @next_pool is not NULL and not full, add @page to
505  *    @next_pool.
506  * 3. Finally, free @page to the kernel.
507  */
508 void kbase_mem_pool_free(struct kbase_mem_pool *pool, struct page *page,
509                 bool dirty);
510
511 /**
512  * kbase_mem_pool_alloc_pages - Allocate pages from memory pool
513  * @pool:     Memory pool to allocate from
514  * @nr_pages: Number of pages to allocate
515  * @pages:    Pointer to array where the physical address of the allocated
516  *            pages will be stored.
517  *
518  * Like kbase_mem_pool_alloc() but optimized for allocating many pages.
519  *
520  * Return: 0 on success, negative -errno on error
521  */
522 int kbase_mem_pool_alloc_pages(struct kbase_mem_pool *pool, size_t nr_pages,
523                 phys_addr_t *pages);
524
525 /**
526  * kbase_mem_pool_free_pages - Free pages to memory pool
527  * @pool:     Memory pool where pages should be freed
528  * @nr_pages: Number of pages to free
529  * @pages:    Pointer to array holding the physical addresses of the pages to
530  *            free.
531  * @dirty:    Whether any pages may be dirty in the cache.
532  * @reclaimed: Whether the pages where reclaimable and thus should bypass
533  *             the pool and go straight to the kernel.
534  *
535  * Like kbase_mem_pool_free() but optimized for freeing many pages.
536  */
537 void kbase_mem_pool_free_pages(struct kbase_mem_pool *pool, size_t nr_pages,
538                 phys_addr_t *pages, bool dirty, bool reclaimed);
539
540 /**
541  * kbase_mem_pool_size - Get number of free pages in memory pool
542  * @pool:  Memory pool to inspect
543  *
544  * Note: the size of the pool may in certain corner cases exceed @max_size!
545  *
546  * Return: Number of free pages in the pool
547  */
548 static inline size_t kbase_mem_pool_size(struct kbase_mem_pool *pool)
549 {
550         return ACCESS_ONCE(pool->cur_size);
551 }
552
553 /**
554  * kbase_mem_pool_max_size - Get maximum number of free pages in memory pool
555  * @pool:  Memory pool to inspect
556  *
557  * Return: Maximum number of free pages in the pool
558  */
559 static inline size_t kbase_mem_pool_max_size(struct kbase_mem_pool *pool)
560 {
561         return pool->max_size;
562 }
563
564
565 /**
566  * kbase_mem_pool_set_max_size - Set maximum number of free pages in memory pool
567  * @pool:     Memory pool to inspect
568  * @max_size: Maximum number of free pages the pool can hold
569  *
570  * If @max_size is reduced, the pool will be shrunk to adhere to the new limit.
571  * For details see kbase_mem_pool_shrink().
572  */
573 void kbase_mem_pool_set_max_size(struct kbase_mem_pool *pool, size_t max_size);
574
575 /**
576  * kbase_mem_pool_trim - Grow or shrink the pool to a new size
577  * @pool:     Memory pool to trim
578  * @new_size: New number of pages in the pool
579  *
580  * If @new_size > @cur_size, fill the pool with new pages from the kernel, but
581  * not above @max_size.
582  * If @new_size < @cur_size, shrink the pool by freeing pages to the kernel.
583  *
584  * Return: The new size of the pool
585  */
586 size_t kbase_mem_pool_trim(struct kbase_mem_pool *pool, size_t new_size);
587
588
589 int kbase_region_tracker_init(struct kbase_context *kctx);
590 int kbase_region_tracker_init_jit(struct kbase_context *kctx, u64 jit_va_pages);
591 void kbase_region_tracker_term(struct kbase_context *kctx);
592
593 struct kbase_va_region *kbase_region_tracker_find_region_enclosing_address(struct kbase_context *kctx, u64 gpu_addr);
594
595 /**
596  * @brief Check that a pointer is actually a valid region.
597  *
598  * Must be called with context lock held.
599  */
600 struct kbase_va_region *kbase_region_tracker_find_region_base_address(struct kbase_context *kctx, u64 gpu_addr);
601
602 struct kbase_va_region *kbase_alloc_free_region(struct kbase_context *kctx, u64 start_pfn, size_t nr_pages, int zone);
603 void kbase_free_alloced_region(struct kbase_va_region *reg);
604 int kbase_add_va_region(struct kbase_context *kctx, struct kbase_va_region *reg, u64 addr, size_t nr_pages, size_t align);
605
606 bool kbase_check_alloc_flags(unsigned long flags);
607 bool kbase_check_import_flags(unsigned long flags);
608 void kbase_update_region_flags(struct kbase_context *kctx,
609                 struct kbase_va_region *reg, unsigned long flags);
610
611 void kbase_gpu_vm_lock(struct kbase_context *kctx);
612 void kbase_gpu_vm_unlock(struct kbase_context *kctx);
613
614 int kbase_alloc_phy_pages(struct kbase_va_region *reg, size_t vsize, size_t size);
615
616 int kbase_mmu_init(struct kbase_context *kctx);
617 void kbase_mmu_term(struct kbase_context *kctx);
618
619 phys_addr_t kbase_mmu_alloc_pgd(struct kbase_context *kctx);
620 void kbase_mmu_free_pgd(struct kbase_context *kctx);
621 int kbase_mmu_insert_pages_no_flush(struct kbase_context *kctx, u64 vpfn,
622                                   phys_addr_t *phys, size_t nr,
623                                   unsigned long flags);
624 int kbase_mmu_insert_pages(struct kbase_context *kctx, u64 vpfn,
625                                   phys_addr_t *phys, size_t nr,
626                                   unsigned long flags);
627 int kbase_mmu_insert_single_page(struct kbase_context *kctx, u64 vpfn,
628                                         phys_addr_t phys, size_t nr,
629                                         unsigned long flags);
630
631 int kbase_mmu_teardown_pages(struct kbase_context *kctx, u64 vpfn, size_t nr);
632 int kbase_mmu_update_pages(struct kbase_context *kctx, u64 vpfn, phys_addr_t *phys, size_t nr, unsigned long flags);
633
634 /**
635  * @brief Register region and map it on the GPU.
636  *
637  * Call kbase_add_va_region() and map the region on the GPU.
638  */
639 int kbase_gpu_mmap(struct kbase_context *kctx, struct kbase_va_region *reg, u64 addr, size_t nr_pages, size_t align);
640
641 /**
642  * @brief Remove the region from the GPU and unregister it.
643  *
644  * Must be called with context lock held.
645  */
646 int kbase_gpu_munmap(struct kbase_context *kctx, struct kbase_va_region *reg);
647
648 /**
649  * The caller has the following locking conditions:
650  * - It must hold kbase_as::transaction_mutex on kctx's address space
651  * - It must hold the kbasep_js_device_data::runpool_irq::lock
652  */
653 void kbase_mmu_update(struct kbase_context *kctx);
654
655 /**
656  * kbase_mmu_disable() - Disable the MMU for a previously active kbase context.
657  * @kctx:       Kbase context
658  *
659  * Disable and perform the required cache maintenance to remove the all
660  * data from provided kbase context from the GPU caches.
661  *
662  * The caller has the following locking conditions:
663  * - It must hold kbase_as::transaction_mutex on kctx's address space
664  * - It must hold the kbasep_js_device_data::runpool_irq::lock
665  */
666 void kbase_mmu_disable(struct kbase_context *kctx);
667
668 /**
669  * kbase_mmu_disable_as() - Set the MMU to unmapped mode for the specified
670  * address space.
671  * @kbdev:      Kbase device
672  * @as_nr:      The address space number to set to unmapped.
673  *
674  * This function must only be called during reset/power-up and it used to
675  * ensure the registers are in a known state.
676  *
677  * The caller must hold kbdev->as[as_nr].transaction_mutex.
678  */
679 void kbase_mmu_disable_as(struct kbase_device *kbdev, int as_nr);
680
681 void kbase_mmu_interrupt(struct kbase_device *kbdev, u32 irq_stat);
682
683 /** Dump the MMU tables to a buffer
684  *
685  * This function allocates a buffer (of @c nr_pages pages) to hold a dump of the MMU tables and fills it. If the
686  * buffer is too small then the return value will be NULL.
687  *
688  * The GPU vm lock must be held when calling this function.
689  *
690  * The buffer returned should be freed with @ref vfree when it is no longer required.
691  *
692  * @param[in]   kctx        The kbase context to dump
693  * @param[in]   nr_pages    The number of pages to allocate for the buffer.
694  *
695  * @return The address of the buffer containing the MMU dump or NULL on error (including if the @c nr_pages is too
696  * small)
697  */
698 void *kbase_mmu_dump(struct kbase_context *kctx, int nr_pages);
699
700 int kbase_sync_now(struct kbase_context *kctx, struct base_syncset *syncset);
701 void kbase_sync_single(struct kbase_context *kctx, phys_addr_t cpu_pa,
702                 phys_addr_t gpu_pa, off_t offset, size_t size,
703                 enum kbase_sync_type sync_fn);
704 void kbase_pre_job_sync(struct kbase_context *kctx, struct base_syncset *syncsets, size_t nr);
705 void kbase_post_job_sync(struct kbase_context *kctx, struct base_syncset *syncsets, size_t nr);
706
707 /* OS specific functions */
708 int kbase_mem_free(struct kbase_context *kctx, u64 gpu_addr);
709 int kbase_mem_free_region(struct kbase_context *kctx, struct kbase_va_region *reg);
710 void kbase_os_mem_map_lock(struct kbase_context *kctx);
711 void kbase_os_mem_map_unlock(struct kbase_context *kctx);
712
713 /**
714  * @brief Update the memory allocation counters for the current process
715  *
716  * OS specific call to updates the current memory allocation counters for the current process with
717  * the supplied delta.
718  *
719  * @param[in] kctx  The kbase context
720  * @param[in] pages The desired delta to apply to the memory usage counters.
721  */
722
723 void kbasep_os_process_page_usage_update(struct kbase_context *kctx, int pages);
724
725 /**
726  * @brief Add to the memory allocation counters for the current process
727  *
728  * OS specific call to add to the current memory allocation counters for the current process by
729  * the supplied amount.
730  *
731  * @param[in] kctx  The kernel base context used for the allocation.
732  * @param[in] pages The desired delta to apply to the memory usage counters.
733  */
734
735 static inline void kbase_process_page_usage_inc(struct kbase_context *kctx, int pages)
736 {
737         kbasep_os_process_page_usage_update(kctx, pages);
738 }
739
740 /**
741  * @brief Subtract from the memory allocation counters for the current process
742  *
743  * OS specific call to subtract from the current memory allocation counters for the current process by
744  * the supplied amount.
745  *
746  * @param[in] kctx  The kernel base context used for the allocation.
747  * @param[in] pages The desired delta to apply to the memory usage counters.
748  */
749
750 static inline void kbase_process_page_usage_dec(struct kbase_context *kctx, int pages)
751 {
752         kbasep_os_process_page_usage_update(kctx, 0 - pages);
753 }
754
755 /**
756  * @brief Find the offset of the CPU mapping of a memory allocation containing
757  *        a given address range
758  *
759  * Searches for a CPU mapping of any part of the region starting at @p gpu_addr
760  * that fully encloses the CPU virtual address range specified by @p uaddr and
761  * @p size. Returns a failure indication if only part of the address range lies
762  * within a CPU mapping, or the address range lies within a CPU mapping of a
763  * different region.
764  *
765  * @param[in,out] kctx      The kernel base context used for the allocation.
766  * @param[in]     gpu_addr  GPU address of the start of the allocated region
767  *                          within which to search.
768  * @param[in]     uaddr     Start of the CPU virtual address range.
769  * @param[in]     size      Size of the CPU virtual address range (in bytes).
770  * @param[out]    offset    The offset from the start of the allocation to the
771  *                          specified CPU virtual address.
772  *
773  * @return 0 if offset was obtained successfully. Error code
774  *         otherwise.
775  */
776 int kbasep_find_enclosing_cpu_mapping_offset(struct kbase_context *kctx,
777                                                         u64 gpu_addr,
778                                                         unsigned long uaddr,
779                                                         size_t size,
780                                                         u64 *offset);
781
782 enum hrtimer_restart kbasep_as_poke_timer_callback(struct hrtimer *timer);
783 void kbase_as_poking_timer_retain_atom(struct kbase_device *kbdev, struct kbase_context *kctx, struct kbase_jd_atom *katom);
784 void kbase_as_poking_timer_release_atom(struct kbase_device *kbdev, struct kbase_context *kctx, struct kbase_jd_atom *katom);
785
786 /**
787 * @brief Allocates physical pages.
788 *
789 * Allocates \a nr_pages_requested and updates the alloc object.
790 *
791 * @param[in] alloc allocation object to add pages to
792 * @param[in] nr_pages_requested number of physical pages to allocate
793 *
794 * @return 0 if all pages have been successfully allocated. Error code otherwise
795 */
796 int kbase_alloc_phy_pages_helper(struct kbase_mem_phy_alloc *alloc, size_t nr_pages_requested);
797
798 /**
799 * @brief Free physical pages.
800 *
801 * Frees \a nr_pages and updates the alloc object.
802 *
803 * @param[in] alloc allocation object to free pages from
804 * @param[in] nr_pages_to_free number of physical pages to free
805 */
806 int kbase_free_phy_pages_helper(struct kbase_mem_phy_alloc *alloc, size_t nr_pages_to_free);
807
808 static inline void kbase_set_dma_addr(struct page *p, dma_addr_t dma_addr)
809 {
810         SetPagePrivate(p);
811         if (sizeof(dma_addr_t) > sizeof(p->private)) {
812                 /* on 32-bit ARM with LPAE dma_addr_t becomes larger, but the
813                  * private field stays the same. So we have to be clever and
814                  * use the fact that we only store DMA addresses of whole pages,
815                  * so the low bits should be zero */
816                 KBASE_DEBUG_ASSERT(!(dma_addr & (PAGE_SIZE - 1)));
817                 set_page_private(p, dma_addr >> PAGE_SHIFT);
818         } else {
819                 set_page_private(p, dma_addr);
820         }
821 }
822
823 static inline dma_addr_t kbase_dma_addr(struct page *p)
824 {
825         if (sizeof(dma_addr_t) > sizeof(p->private))
826                 return ((dma_addr_t)page_private(p)) << PAGE_SHIFT;
827
828         return (dma_addr_t)page_private(p);
829 }
830
831 static inline void kbase_clear_dma_addr(struct page *p)
832 {
833         ClearPagePrivate(p);
834 }
835
836 /**
837 * @brief Process a bus or page fault.
838 *
839 * This function will process a fault on a specific address space
840 *
841 * @param[in] kbdev   The @ref kbase_device the fault happened on
842 * @param[in] kctx    The @ref kbase_context for the faulting address space if
843 *                    one was found.
844 * @param[in] as      The address space that has the fault
845 */
846 void kbase_mmu_interrupt_process(struct kbase_device *kbdev,
847                 struct kbase_context *kctx, struct kbase_as *as);
848
849 /**
850  * @brief Process a page fault.
851  *
852  * @param[in] data  work_struct passed by queue_work()
853  */
854 void page_fault_worker(struct work_struct *data);
855
856 /**
857  * @brief Process a bus fault.
858  *
859  * @param[in] data  work_struct passed by queue_work()
860  */
861 void bus_fault_worker(struct work_struct *data);
862
863 /**
864  * @brief Flush MMU workqueues.
865  *
866  * This function will cause any outstanding page or bus faults to be processed.
867  * It should be called prior to powering off the GPU.
868  *
869  * @param[in] kbdev   Device pointer
870  */
871 void kbase_flush_mmu_wqs(struct kbase_device *kbdev);
872
873 /**
874  * kbase_sync_single_for_device - update physical memory and give GPU ownership
875  * @kbdev: Device pointer
876  * @handle: DMA address of region
877  * @size: Size of region to sync
878  * @dir:  DMA data direction
879  */
880
881 void kbase_sync_single_for_device(struct kbase_device *kbdev, dma_addr_t handle,
882                 size_t size, enum dma_data_direction dir);
883
884 /**
885  * kbase_sync_single_for_cpu - update physical memory and give CPU ownership
886  * @kbdev: Device pointer
887  * @handle: DMA address of region
888  * @size: Size of region to sync
889  * @dir:  DMA data direction
890  */
891
892 void kbase_sync_single_for_cpu(struct kbase_device *kbdev, dma_addr_t handle,
893                 size_t size, enum dma_data_direction dir);
894
895 #ifdef CONFIG_DEBUG_FS
896 /**
897  * kbase_jit_debugfs_add - Add per context debugfs entry for JIT.
898  * @kctx: kbase context
899  */
900 void kbase_jit_debugfs_add(struct kbase_context *kctx);
901 #endif /* CONFIG_DEBUG_FS */
902
903 /**
904  * kbase_jit_init - Initialize the JIT memory pool management
905  * @kctx: kbase context
906  *
907  * Returns zero on success or negative error number on failure.
908  */
909 int kbase_jit_init(struct kbase_context *kctx);
910
911 /**
912  * kbase_jit_allocate - Allocate JIT memory
913  * @kctx: kbase context
914  * @info: JIT allocation information
915  *
916  * Return: JIT allocation on success or NULL on failure.
917  */
918 struct kbase_va_region *kbase_jit_allocate(struct kbase_context *kctx,
919                 struct base_jit_alloc_info *info);
920
921 /**
922  * kbase_jit_free - Free a JIT allocation
923  * @kctx: kbase context
924  * @reg: JIT allocation
925  *
926  * Frees a JIT allocation and places it into the free pool for later reuse.
927  */
928 void kbase_jit_free(struct kbase_context *kctx, struct kbase_va_region *reg);
929
930 /**
931  * kbase_jit_backing_lost - Inform JIT that an allocation has lost backing
932  * @reg: JIT allocation
933  */
934 void kbase_jit_backing_lost(struct kbase_va_region *reg);
935
936 /**
937  * kbase_jit_evict - Evict a JIT allocation from the pool
938  * @kctx: kbase context
939  *
940  * Evict the least recently used JIT allocation from the pool. This can be
941  * required if normal VA allocations are failing due to VA exhaustion.
942  *
943  * Return: True if a JIT allocation was freed, false otherwise.
944  */
945 bool kbase_jit_evict(struct kbase_context *kctx);
946
947 /**
948  * kbase_jit_term - Terminate the JIT memory pool management
949  * @kctx: kbase context
950  */
951 void kbase_jit_term(struct kbase_context *kctx);
952
953 /**
954  * kbase_map_external_resource - Map an external resource to the GPU.
955  * @kctx:              kbase context.
956  * @reg:               The region to map.
957  * @locked_mm:         The mm_struct which has been locked for this operation.
958  * @kds_res_count:     The number of KDS resources.
959  * @kds_resources:     Array of KDS resources.
960  * @kds_access_bitmap: Access bitmap for KDS.
961  * @exclusive:         If the KDS resource requires exclusive access.
962  *
963  * Return: The physical allocation which backs the region on success or NULL
964  * on failure.
965  */
966 struct kbase_mem_phy_alloc *kbase_map_external_resource(
967                 struct kbase_context *kctx, struct kbase_va_region *reg,
968                 struct mm_struct *locked_mm
969 #ifdef CONFIG_KDS
970                 , u32 *kds_res_count, struct kds_resource **kds_resources,
971                 unsigned long *kds_access_bitmap, bool exclusive
972 #endif
973                 );
974
975 /**
976  * kbase_unmap_external_resource - Unmap an external resource from the GPU.
977  * @kctx:  kbase context.
978  * @reg:   The region to unmap or NULL if it has already been released.
979  * @alloc: The physical allocation being unmapped.
980  */
981 void kbase_unmap_external_resource(struct kbase_context *kctx,
982                 struct kbase_va_region *reg, struct kbase_mem_phy_alloc *alloc);
983
984 /**
985  * kbase_sticky_resource_init - Initialize sticky resource management.
986  * @kctx: kbase context
987  *
988  * Returns zero on success or negative error number on failure.
989  */
990 int kbase_sticky_resource_init(struct kbase_context *kctx);
991
992 /**
993  * kbase_sticky_resource_acquire - Acquire a reference on a sticky resource.
994  * @kctx:     kbase context.
995  * @gpu_addr: The GPU address of the external resource.
996  *
997  * Return: The metadata object which represents the binding between the
998  * external resource and the kbase context on success or NULL on failure.
999  */
1000 struct kbase_ctx_ext_res_meta *kbase_sticky_resource_acquire(
1001                 struct kbase_context *kctx, u64 gpu_addr);
1002
1003 /**
1004  * kbase_sticky_resource_release - Release a reference on a sticky resource.
1005  * @kctx:     kbase context.
1006  * @meta:     Binding metadata.
1007  * @gpu_addr: GPU address of the external resource.
1008  *
1009  * If meta is NULL then gpu_addr will be used to scan the metadata list and
1010  * find the matching metadata (if any), otherwise the provided meta will be
1011  * used and gpu_addr will be ignored.
1012  *
1013  * Return: True if the release found the metadata and the reference was dropped.
1014  */
1015 bool kbase_sticky_resource_release(struct kbase_context *kctx,
1016                 struct kbase_ctx_ext_res_meta *meta, u64 gpu_addr);
1017
1018 /**
1019  * kbase_sticky_resource_term - Terminate sticky resource management.
1020  * @kctx: kbase context
1021  */
1022 void kbase_sticky_resource_term(struct kbase_context *kctx);
1023
1024 /**
1025  * kbase_zone_cache_update - Update the memory zone cache after new pages have
1026  * been added.
1027  * @alloc:        The physical memory allocation to build the cache for.
1028  * @start_offset: Offset to where the new pages start.
1029  *
1030  * Updates an existing memory zone cache, updating the counters for the
1031  * various zones.
1032  * If the memory allocation doesn't already have a zone cache assume that
1033  * one isn't created and thus don't do anything.
1034  *
1035  * Return: Zero cache was updated, negative error code on error.
1036  */
1037 int kbase_zone_cache_update(struct kbase_mem_phy_alloc *alloc,
1038                 size_t start_offset);
1039
1040 /**
1041  * kbase_zone_cache_build - Build the memory zone cache.
1042  * @alloc:        The physical memory allocation to build the cache for.
1043  *
1044  * Create a new zone cache for the provided physical memory allocation if
1045  * one doesn't already exist, if one does exist then just return.
1046  *
1047  * Return: Zero if the zone cache was created, negative error code on error.
1048  */
1049 int kbase_zone_cache_build(struct kbase_mem_phy_alloc *alloc);
1050
1051 /**
1052  * kbase_zone_cache_clear - Clear the memory zone cache.
1053  * @alloc:        The physical memory allocation to clear the cache on.
1054  */
1055 void kbase_zone_cache_clear(struct kbase_mem_phy_alloc *alloc);
1056
1057 #endif                          /* _KBASE_MEM_H_ */