LCOV - code coverage report
Current view: top level - kernel/dma - remap.c (source / functions) Hit Total Coverage
Test: gcov_data_raspi2_real_modules_combined.info Lines: 0 31 0.0 %
Date: 2020-09-30 20:25:40 Functions: 0 5 0.0 %
Branches: 0 20 0.0 %

           Branch data     Line data    Source code
       1                 :            : // SPDX-License-Identifier: GPL-2.0
       2                 :            : /*
       3                 :            :  * Copyright (C) 2012 ARM Ltd.
       4                 :            :  * Copyright (c) 2014 The Linux Foundation
       5                 :            :  */
       6                 :            : #include <linux/dma-direct.h>
       7                 :            : #include <linux/dma-noncoherent.h>
       8                 :            : #include <linux/dma-contiguous.h>
       9                 :            : #include <linux/init.h>
      10                 :            : #include <linux/genalloc.h>
      11                 :            : #include <linux/slab.h>
      12                 :            : #include <linux/vmalloc.h>
      13                 :            : 
      14                 :          0 : struct page **dma_common_find_pages(void *cpu_addr)
      15                 :            : {
      16                 :          0 :         struct vm_struct *area = find_vm_area(cpu_addr);
      17                 :            : 
      18   [ #  #  #  # ]:          0 :         if (!area || area->flags != VM_DMA_COHERENT)
      19                 :            :                 return NULL;
      20                 :          0 :         return area->pages;
      21                 :            : }
      22                 :            : 
      23                 :          0 : static struct vm_struct *__dma_common_pages_remap(struct page **pages,
      24                 :            :                         size_t size, pgprot_t prot, const void *caller)
      25                 :            : {
      26                 :            :         struct vm_struct *area;
      27                 :            : 
      28                 :          0 :         area = get_vm_area_caller(size, VM_DMA_COHERENT, caller);
      29         [ #  # ]:          0 :         if (!area)
      30                 :            :                 return NULL;
      31                 :            : 
      32         [ #  # ]:          0 :         if (map_vm_area(area, prot, pages)) {
      33                 :          0 :                 vunmap(area->addr);
      34                 :          0 :                 return NULL;
      35                 :            :         }
      36                 :            : 
      37                 :            :         return area;
      38                 :            : }
      39                 :            : 
      40                 :            : /*
      41                 :            :  * Remaps an array of PAGE_SIZE pages into another vm_area.
      42                 :            :  * Cannot be used in non-sleeping contexts
      43                 :            :  */
      44                 :          0 : void *dma_common_pages_remap(struct page **pages, size_t size,
      45                 :            :                          pgprot_t prot, const void *caller)
      46                 :            : {
      47                 :            :         struct vm_struct *area;
      48                 :            : 
      49                 :          0 :         area = __dma_common_pages_remap(pages, size, prot, caller);
      50         [ #  # ]:          0 :         if (!area)
      51                 :            :                 return NULL;
      52                 :            : 
      53                 :          0 :         area->pages = pages;
      54                 :            : 
      55                 :          0 :         return area->addr;
      56                 :            : }
      57                 :            : 
      58                 :            : /*
      59                 :            :  * Remaps an allocated contiguous region into another vm_area.
      60                 :            :  * Cannot be used in non-sleeping contexts
      61                 :            :  */
      62                 :          0 : void *dma_common_contiguous_remap(struct page *page, size_t size,
      63                 :            :                         pgprot_t prot, const void *caller)
      64                 :            : {
      65                 :            :         int i;
      66                 :            :         struct page **pages;
      67                 :            :         struct vm_struct *area;
      68                 :            : 
      69                 :          0 :         pages = kmalloc(sizeof(struct page *) << get_order(size), GFP_KERNEL);
      70         [ #  # ]:          0 :         if (!pages)
      71                 :            :                 return NULL;
      72                 :            : 
      73         [ #  # ]:          0 :         for (i = 0; i < (size >> PAGE_SHIFT); i++)
      74                 :          0 :                 pages[i] = nth_page(page, i);
      75                 :            : 
      76                 :          0 :         area = __dma_common_pages_remap(pages, size, prot, caller);
      77                 :            : 
      78                 :          0 :         kfree(pages);
      79                 :            : 
      80         [ #  # ]:          0 :         if (!area)
      81                 :            :                 return NULL;
      82                 :          0 :         return area->addr;
      83                 :            : }
      84                 :            : 
      85                 :            : /*
      86                 :            :  * Unmaps a range previously mapped by dma_common_*_remap
      87                 :            :  */
      88                 :          0 : void dma_common_free_remap(void *cpu_addr, size_t size)
      89                 :            : {
      90                 :          0 :         struct vm_struct *area = find_vm_area(cpu_addr);
      91                 :            : 
      92   [ #  #  #  # ]:          0 :         if (!area || area->flags != VM_DMA_COHERENT) {
      93                 :          0 :                 WARN(1, "trying to free invalid coherent area: %p\n", cpu_addr);
      94                 :          0 :                 return;
      95                 :            :         }
      96                 :            : 
      97                 :          0 :         unmap_kernel_range((unsigned long)cpu_addr, PAGE_ALIGN(size));
      98                 :          0 :         vunmap(cpu_addr);
      99                 :            : }
     100                 :            : 
     101                 :            : #ifdef CONFIG_DMA_DIRECT_REMAP
     102                 :            : static struct gen_pool *atomic_pool __ro_after_init;
     103                 :            : 
     104                 :            : #define DEFAULT_DMA_COHERENT_POOL_SIZE  SZ_256K
     105                 :            : static size_t atomic_pool_size __initdata = DEFAULT_DMA_COHERENT_POOL_SIZE;
     106                 :            : 
     107                 :            : static int __init early_coherent_pool(char *p)
     108                 :            : {
     109                 :            :         atomic_pool_size = memparse(p, &p);
     110                 :            :         return 0;
     111                 :            : }
     112                 :            : early_param("coherent_pool", early_coherent_pool);
     113                 :            : 
     114                 :            : static gfp_t dma_atomic_pool_gfp(void)
     115                 :            : {
     116                 :            :         if (IS_ENABLED(CONFIG_ZONE_DMA))
     117                 :            :                 return GFP_DMA;
     118                 :            :         if (IS_ENABLED(CONFIG_ZONE_DMA32))
     119                 :            :                 return GFP_DMA32;
     120                 :            :         return GFP_KERNEL;
     121                 :            : }
     122                 :            : 
     123                 :            : static int __init dma_atomic_pool_init(void)
     124                 :            : {
     125                 :            :         unsigned int pool_size_order = get_order(atomic_pool_size);
     126                 :            :         unsigned long nr_pages = atomic_pool_size >> PAGE_SHIFT;
     127                 :            :         struct page *page;
     128                 :            :         void *addr;
     129                 :            :         int ret;
     130                 :            : 
     131                 :            :         if (dev_get_cma_area(NULL))
     132                 :            :                 page = dma_alloc_from_contiguous(NULL, nr_pages,
     133                 :            :                                                  pool_size_order, false);
     134                 :            :         else
     135                 :            :                 page = alloc_pages(dma_atomic_pool_gfp(), pool_size_order);
     136                 :            :         if (!page)
     137                 :            :                 goto out;
     138                 :            : 
     139                 :            :         arch_dma_prep_coherent(page, atomic_pool_size);
     140                 :            : 
     141                 :            :         atomic_pool = gen_pool_create(PAGE_SHIFT, -1);
     142                 :            :         if (!atomic_pool)
     143                 :            :                 goto free_page;
     144                 :            : 
     145                 :            :         addr = dma_common_contiguous_remap(page, atomic_pool_size,
     146                 :            :                                            pgprot_dmacoherent(PAGE_KERNEL),
     147                 :            :                                            __builtin_return_address(0));
     148                 :            :         if (!addr)
     149                 :            :                 goto destroy_genpool;
     150                 :            : 
     151                 :            :         ret = gen_pool_add_virt(atomic_pool, (unsigned long)addr,
     152                 :            :                                 page_to_phys(page), atomic_pool_size, -1);
     153                 :            :         if (ret)
     154                 :            :                 goto remove_mapping;
     155                 :            :         gen_pool_set_algo(atomic_pool, gen_pool_first_fit_order_align, NULL);
     156                 :            : 
     157                 :            :         pr_info("DMA: preallocated %zu KiB pool for atomic allocations\n",
     158                 :            :                 atomic_pool_size / 1024);
     159                 :            :         return 0;
     160                 :            : 
     161                 :            : remove_mapping:
     162                 :            :         dma_common_free_remap(addr, atomic_pool_size);
     163                 :            : destroy_genpool:
     164                 :            :         gen_pool_destroy(atomic_pool);
     165                 :            :         atomic_pool = NULL;
     166                 :            : free_page:
     167                 :            :         if (!dma_release_from_contiguous(NULL, page, nr_pages))
     168                 :            :                 __free_pages(page, pool_size_order);
     169                 :            : out:
     170                 :            :         pr_err("DMA: failed to allocate %zu KiB pool for atomic coherent allocation\n",
     171                 :            :                 atomic_pool_size / 1024);
     172                 :            :         return -ENOMEM;
     173                 :            : }
     174                 :            : postcore_initcall(dma_atomic_pool_init);
     175                 :            : 
     176                 :            : bool dma_in_atomic_pool(void *start, size_t size)
     177                 :            : {
     178                 :            :         if (unlikely(!atomic_pool))
     179                 :            :                 return false;
     180                 :            : 
     181                 :            :         return addr_in_gen_pool(atomic_pool, (unsigned long)start, size);
     182                 :            : }
     183                 :            : 
     184                 :            : void *dma_alloc_from_pool(size_t size, struct page **ret_page, gfp_t flags)
     185                 :            : {
     186                 :            :         unsigned long val;
     187                 :            :         void *ptr = NULL;
     188                 :            : 
     189                 :            :         if (!atomic_pool) {
     190                 :            :                 WARN(1, "coherent pool not initialised!\n");
     191                 :            :                 return NULL;
     192                 :            :         }
     193                 :            : 
     194                 :            :         val = gen_pool_alloc(atomic_pool, size);
     195                 :            :         if (val) {
     196                 :            :                 phys_addr_t phys = gen_pool_virt_to_phys(atomic_pool, val);
     197                 :            : 
     198                 :            :                 *ret_page = pfn_to_page(__phys_to_pfn(phys));
     199                 :            :                 ptr = (void *)val;
     200                 :            :                 memset(ptr, 0, size);
     201                 :            :         }
     202                 :            : 
     203                 :            :         return ptr;
     204                 :            : }
     205                 :            : 
     206                 :            : bool dma_free_from_pool(void *start, size_t size)
     207                 :            : {
     208                 :            :         if (!dma_in_atomic_pool(start, size))
     209                 :            :                 return false;
     210                 :            :         gen_pool_free(atomic_pool, (unsigned long)start, size);
     211                 :            :         return true;
     212                 :            : }
     213                 :            : 
     214                 :            : void *arch_dma_alloc(struct device *dev, size_t size, dma_addr_t *dma_handle,
     215                 :            :                 gfp_t flags, unsigned long attrs)
     216                 :            : {
     217                 :            :         struct page *page = NULL;
     218                 :            :         void *ret;
     219                 :            : 
     220                 :            :         size = PAGE_ALIGN(size);
     221                 :            : 
     222                 :            :         if (!gfpflags_allow_blocking(flags)) {
     223                 :            :                 ret = dma_alloc_from_pool(size, &page, flags);
     224                 :            :                 if (!ret)
     225                 :            :                         return NULL;
     226                 :            :                 goto done;
     227                 :            :         }
     228                 :            : 
     229                 :            :         page = __dma_direct_alloc_pages(dev, size, dma_handle, flags, attrs);
     230                 :            :         if (!page)
     231                 :            :                 return NULL;
     232                 :            : 
     233                 :            :         /* remove any dirty cache lines on the kernel alias */
     234                 :            :         arch_dma_prep_coherent(page, size);
     235                 :            : 
     236                 :            :         /* create a coherent mapping */
     237                 :            :         ret = dma_common_contiguous_remap(page, size,
     238                 :            :                         dma_pgprot(dev, PAGE_KERNEL, attrs),
     239                 :            :                         __builtin_return_address(0));
     240                 :            :         if (!ret) {
     241                 :            :                 __dma_direct_free_pages(dev, size, page);
     242                 :            :                 return ret;
     243                 :            :         }
     244                 :            : 
     245                 :            :         memset(ret, 0, size);
     246                 :            : done:
     247                 :            :         *dma_handle = phys_to_dma(dev, page_to_phys(page));
     248                 :            :         return ret;
     249                 :            : }
     250                 :            : 
     251                 :            : void arch_dma_free(struct device *dev, size_t size, void *vaddr,
     252                 :            :                 dma_addr_t dma_handle, unsigned long attrs)
     253                 :            : {
     254                 :            :         if (!dma_free_from_pool(vaddr, PAGE_ALIGN(size))) {
     255                 :            :                 phys_addr_t phys = dma_to_phys(dev, dma_handle);
     256                 :            :                 struct page *page = pfn_to_page(__phys_to_pfn(phys));
     257                 :            : 
     258                 :            :                 vunmap(vaddr);
     259                 :            :                 __dma_direct_free_pages(dev, size, page);
     260                 :            :         }
     261                 :            : }
     262                 :            : 
     263                 :            : long arch_dma_coherent_to_pfn(struct device *dev, void *cpu_addr,
     264                 :            :                 dma_addr_t dma_addr)
     265                 :            : {
     266                 :            :         return __phys_to_pfn(dma_to_phys(dev, dma_addr));
     267                 :            : }
     268                 :            : #endif /* CONFIG_DMA_DIRECT_REMAP */

Generated by: LCOV version 1.14