LCOV - code coverage report
Current view: top level - mm - slab_common.c (source / functions) Hit Total Coverage
Test: Real Lines: 180 491 36.7 %
Date: 2020-10-17 15:46:16 Functions: 0 65 0.0 %
Legend: Neither, QEMU, Real, Both Branches: 0 0 -

           Branch data     Line data    Source code
       1                 :            : // SPDX-License-Identifier: GPL-2.0
       2                 :            : /*
       3                 :            :  * Slab allocator functions that are independent of the allocator strategy
       4                 :            :  *
       5                 :            :  * (C) 2012 Christoph Lameter <cl@linux.com>
       6                 :            :  */
       7                 :            : #include <linux/slab.h>
       8                 :            : 
       9                 :            : #include <linux/mm.h>
      10                 :            : #include <linux/poison.h>
      11                 :            : #include <linux/interrupt.h>
      12                 :            : #include <linux/memory.h>
      13                 :            : #include <linux/cache.h>
      14                 :            : #include <linux/compiler.h>
      15                 :            : #include <linux/module.h>
      16                 :            : #include <linux/cpu.h>
      17                 :            : #include <linux/uaccess.h>
      18                 :            : #include <linux/seq_file.h>
      19                 :            : #include <linux/proc_fs.h>
      20                 :            : #include <linux/debugfs.h>
      21                 :            : #include <asm/cacheflush.h>
      22                 :            : #include <asm/tlbflush.h>
      23                 :            : #include <asm/page.h>
      24                 :            : #include <linux/memcontrol.h>
      25                 :            : 
      26                 :            : #define CREATE_TRACE_POINTS
      27                 :            : #include <trace/events/kmem.h>
      28                 :            : 
      29                 :            : #include "slab.h"
      30                 :            : 
      31                 :            : enum slab_state slab_state;
      32                 :            : LIST_HEAD(slab_caches);
      33                 :            : DEFINE_MUTEX(slab_mutex);
      34                 :            : struct kmem_cache *kmem_cache;
      35                 :            : 
      36                 :            : #ifdef CONFIG_HARDENED_USERCOPY
      37                 :            : bool usercopy_fallback __ro_after_init =
      38                 :            :                 IS_ENABLED(CONFIG_HARDENED_USERCOPY_FALLBACK);
      39                 :            : module_param(usercopy_fallback, bool, 0400);
      40                 :            : MODULE_PARM_DESC(usercopy_fallback,
      41                 :            :                 "WARN instead of reject usercopy whitelist violations");
      42                 :            : #endif
      43                 :            : 
      44                 :            : static LIST_HEAD(slab_caches_to_rcu_destroy);
      45                 :            : static void slab_caches_to_rcu_destroy_workfn(struct work_struct *work);
      46                 :            : static DECLARE_WORK(slab_caches_to_rcu_destroy_work,
      47                 :            :                     slab_caches_to_rcu_destroy_workfn);
      48                 :            : 
      49                 :            : /*
      50                 :            :  * Set of flags that will prevent slab merging
      51                 :            :  */
      52                 :            : #define SLAB_NEVER_MERGE (SLAB_RED_ZONE | SLAB_POISON | SLAB_STORE_USER | \
      53                 :            :                 SLAB_TRACE | SLAB_TYPESAFE_BY_RCU | SLAB_NOLEAKTRACE | \
      54                 :            :                 SLAB_FAILSLAB | SLAB_KASAN)
      55                 :            : 
      56                 :            : #define SLAB_MERGE_SAME (SLAB_RECLAIM_ACCOUNT | SLAB_CACHE_DMA | \
      57                 :            :                          SLAB_CACHE_DMA32 | SLAB_ACCOUNT)
      58                 :            : 
      59                 :            : /*
      60                 :            :  * Merge control. If this is set then no merging of slab caches will occur.
      61                 :            :  */
      62                 :            : static bool slab_nomerge = !IS_ENABLED(CONFIG_SLAB_MERGE_DEFAULT);
      63                 :            : 
      64                 :          0 : static int __init setup_slab_nomerge(char *str)
      65                 :            : {
      66                 :          0 :         slab_nomerge = true;
      67                 :          0 :         return 1;
      68                 :            : }
      69                 :            : 
      70                 :            : #ifdef CONFIG_SLUB
      71                 :            : __setup_param("slub_nomerge", slub_nomerge, setup_slab_nomerge, 0);
      72                 :            : #endif
      73                 :            : 
      74                 :            : __setup("slab_nomerge", setup_slab_nomerge);
      75                 :            : 
      76                 :            : /*
      77                 :            :  * Determine the size of a slab object
      78                 :            :  */
      79                 :          0 : unsigned int kmem_cache_size(struct kmem_cache *s)
      80                 :            : {
      81                 :          0 :         return s->object_size;
      82                 :            : }
      83                 :            : EXPORT_SYMBOL(kmem_cache_size);
      84                 :            : 
      85                 :            : #ifdef CONFIG_DEBUG_VM
      86                 :            : static int kmem_cache_sanity_check(const char *name, unsigned int size)
      87                 :            : {
      88                 :            :         if (!name || in_interrupt() || size < sizeof(void *) ||
      89                 :            :                 size > KMALLOC_MAX_SIZE) {
      90                 :            :                 pr_err("kmem_cache_create(%s) integrity check failed\n", name);
      91                 :            :                 return -EINVAL;
      92                 :            :         }
      93                 :            : 
      94                 :            :         WARN_ON(strchr(name, ' '));     /* It confuses parsers */
      95                 :            :         return 0;
      96                 :            : }
      97                 :            : #else
      98                 :            : static inline int kmem_cache_sanity_check(const char *name, unsigned int size)
      99                 :            : {
     100                 :            :         return 0;
     101                 :            : }
     102                 :            : #endif
     103                 :            : 
     104                 :          0 : void __kmem_cache_free_bulk(struct kmem_cache *s, size_t nr, void **p)
     105                 :            : {
     106                 :            :         size_t i;
     107                 :            : 
     108                 :          0 :         for (i = 0; i < nr; i++) {
     109                 :          0 :                 if (s)
     110                 :          0 :                         kmem_cache_free(s, p[i]);
     111                 :            :                 else
     112                 :          0 :                         kfree(p[i]);
     113                 :            :         }
     114                 :          0 : }
     115                 :            : 
     116                 :          0 : int __kmem_cache_alloc_bulk(struct kmem_cache *s, gfp_t flags, size_t nr,
     117                 :            :                                                                 void **p)
     118                 :            : {
     119                 :            :         size_t i;
     120                 :            : 
     121                 :          0 :         for (i = 0; i < nr; i++) {
     122                 :          0 :                 void *x = p[i] = kmem_cache_alloc(s, flags);
     123                 :          0 :                 if (!x) {
     124                 :          0 :                         __kmem_cache_free_bulk(s, i, p);
     125                 :          0 :                         return 0;
     126                 :            :                 }
     127                 :            :         }
     128                 :          0 :         return i;
     129                 :            : }
     130                 :            : 
     131                 :            : #ifdef CONFIG_MEMCG_KMEM
     132                 :            : 
     133                 :            : LIST_HEAD(slab_root_caches);
     134                 :            : static DEFINE_SPINLOCK(memcg_kmem_wq_lock);
     135                 :            : 
     136                 :            : static void kmemcg_cache_shutdown(struct percpu_ref *percpu_ref);
     137                 :            : 
     138                 :          3 : void slab_init_memcg_params(struct kmem_cache *s)
     139                 :            : {
     140                 :          3 :         s->memcg_params.root_cache = NULL;
     141                 :            :         RCU_INIT_POINTER(s->memcg_params.memcg_caches, NULL);
     142                 :          3 :         INIT_LIST_HEAD(&s->memcg_params.children);
     143                 :          3 :         s->memcg_params.dying = false;
     144                 :          3 : }
     145                 :            : 
     146                 :          3 : static int init_memcg_params(struct kmem_cache *s,
     147                 :            :                              struct kmem_cache *root_cache)
     148                 :            : {
     149                 :            :         struct memcg_cache_array *arr;
     150                 :            : 
     151                 :          3 :         if (root_cache) {
     152                 :          0 :                 int ret = percpu_ref_init(&s->memcg_params.refcnt,
     153                 :            :                                           kmemcg_cache_shutdown,
     154                 :            :                                           0, GFP_KERNEL);
     155                 :          0 :                 if (ret)
     156                 :            :                         return ret;
     157                 :            : 
     158                 :          0 :                 s->memcg_params.root_cache = root_cache;
     159                 :          0 :                 INIT_LIST_HEAD(&s->memcg_params.children_node);
     160                 :          0 :                 INIT_LIST_HEAD(&s->memcg_params.kmem_caches_node);
     161                 :          0 :                 return 0;
     162                 :            :         }
     163                 :            : 
     164                 :            :         slab_init_memcg_params(s);
     165                 :            : 
     166                 :          3 :         if (!memcg_nr_cache_ids)
     167                 :            :                 return 0;
     168                 :            : 
     169                 :          0 :         arr = kvzalloc(sizeof(struct memcg_cache_array) +
     170                 :            :                        memcg_nr_cache_ids * sizeof(void *),
     171                 :            :                        GFP_KERNEL);
     172                 :          0 :         if (!arr)
     173                 :            :                 return -ENOMEM;
     174                 :            : 
     175                 :          0 :         RCU_INIT_POINTER(s->memcg_params.memcg_caches, arr);
     176                 :          0 :         return 0;
     177                 :            : }
     178                 :            : 
     179                 :          0 : static void destroy_memcg_params(struct kmem_cache *s)
     180                 :            : {
     181                 :          0 :         if (is_root_cache(s)) {
     182                 :          0 :                 kvfree(rcu_access_pointer(s->memcg_params.memcg_caches));
     183                 :            :         } else {
     184                 :          0 :                 mem_cgroup_put(s->memcg_params.memcg);
     185                 :            :                 WRITE_ONCE(s->memcg_params.memcg, NULL);
     186                 :          0 :                 percpu_ref_exit(&s->memcg_params.refcnt);
     187                 :            :         }
     188                 :          0 : }
     189                 :            : 
     190                 :          0 : static void free_memcg_params(struct rcu_head *rcu)
     191                 :            : {
     192                 :            :         struct memcg_cache_array *old;
     193                 :            : 
     194                 :            :         old = container_of(rcu, struct memcg_cache_array, rcu);
     195                 :          0 :         kvfree(old);
     196                 :          0 : }
     197                 :            : 
     198                 :          0 : static int update_memcg_params(struct kmem_cache *s, int new_array_size)
     199                 :            : {
     200                 :            :         struct memcg_cache_array *old, *new;
     201                 :            : 
     202                 :          0 :         new = kvzalloc(sizeof(struct memcg_cache_array) +
     203                 :            :                        new_array_size * sizeof(void *), GFP_KERNEL);
     204                 :          0 :         if (!new)
     205                 :            :                 return -ENOMEM;
     206                 :            : 
     207                 :          0 :         old = rcu_dereference_protected(s->memcg_params.memcg_caches,
     208                 :            :                                         lockdep_is_held(&slab_mutex));
     209                 :          0 :         if (old)
     210                 :          0 :                 memcpy(new->entries, old->entries,
     211                 :            :                        memcg_nr_cache_ids * sizeof(void *));
     212                 :            : 
     213                 :          0 :         rcu_assign_pointer(s->memcg_params.memcg_caches, new);
     214                 :          0 :         if (old)
     215                 :          0 :                 call_rcu(&old->rcu, free_memcg_params);
     216                 :            :         return 0;
     217                 :            : }
     218                 :            : 
     219                 :          0 : int memcg_update_all_caches(int num_memcgs)
     220                 :            : {
     221                 :            :         struct kmem_cache *s;
     222                 :            :         int ret = 0;
     223                 :            : 
     224                 :          0 :         mutex_lock(&slab_mutex);
     225                 :          0 :         list_for_each_entry(s, &slab_root_caches, root_caches_node) {
     226                 :          0 :                 ret = update_memcg_params(s, num_memcgs);
     227                 :            :                 /*
     228                 :            :                  * Instead of freeing the memory, we'll just leave the caches
     229                 :            :                  * up to this point in an updated state.
     230                 :            :                  */
     231                 :          0 :                 if (ret)
     232                 :            :                         break;
     233                 :            :         }
     234                 :          0 :         mutex_unlock(&slab_mutex);
     235                 :          0 :         return ret;
     236                 :            : }
     237                 :            : 
     238                 :          3 : void memcg_link_cache(struct kmem_cache *s, struct mem_cgroup *memcg)
     239                 :            : {
     240                 :          3 :         if (is_root_cache(s)) {
     241                 :          3 :                 list_add(&s->root_caches_node, &slab_root_caches);
     242                 :            :         } else {
     243                 :            :                 css_get(&memcg->css);
     244                 :          0 :                 s->memcg_params.memcg = memcg;
     245                 :          0 :                 list_add(&s->memcg_params.children_node,
     246                 :          0 :                          &s->memcg_params.root_cache->memcg_params.children);
     247                 :          0 :                 list_add(&s->memcg_params.kmem_caches_node,
     248                 :          0 :                          &s->memcg_params.memcg->kmem_caches);
     249                 :            :         }
     250                 :          3 : }
     251                 :            : 
     252                 :          0 : static void memcg_unlink_cache(struct kmem_cache *s)
     253                 :            : {
     254                 :          0 :         if (is_root_cache(s)) {
     255                 :            :                 list_del(&s->root_caches_node);
     256                 :            :         } else {
     257                 :            :                 list_del(&s->memcg_params.children_node);
     258                 :            :                 list_del(&s->memcg_params.kmem_caches_node);
     259                 :            :         }
     260                 :          0 : }
     261                 :            : #else
     262                 :            : static inline int init_memcg_params(struct kmem_cache *s,
     263                 :            :                                     struct kmem_cache *root_cache)
     264                 :            : {
     265                 :            :         return 0;
     266                 :            : }
     267                 :            : 
     268                 :            : static inline void destroy_memcg_params(struct kmem_cache *s)
     269                 :            : {
     270                 :            : }
     271                 :            : 
     272                 :            : static inline void memcg_unlink_cache(struct kmem_cache *s)
     273                 :            : {
     274                 :            : }
     275                 :            : #endif /* CONFIG_MEMCG_KMEM */
     276                 :            : 
     277                 :            : /*
     278                 :            :  * Figure out what the alignment of the objects will be given a set of
     279                 :            :  * flags, a user specified alignment and the size of the objects.
     280                 :            :  */
     281                 :            : static unsigned int calculate_alignment(slab_flags_t flags,
     282                 :            :                 unsigned int align, unsigned int size)
     283                 :            : {
     284                 :            :         /*
     285                 :            :          * If the user wants hardware cache aligned objects then follow that
     286                 :            :          * suggestion if the object is sufficiently large.
     287                 :            :          *
     288                 :            :          * The hardware cache alignment cannot override the specified
     289                 :            :          * alignment though. If that is greater then use it.
     290                 :            :          */
     291                 :          3 :         if (flags & SLAB_HWCACHE_ALIGN) {
     292                 :            :                 unsigned int ralign;
     293                 :            : 
     294                 :            :                 ralign = cache_line_size();
     295                 :          3 :                 while (size <= ralign / 2)
     296                 :            :                         ralign /= 2;
     297                 :          3 :                 align = max(align, ralign);
     298                 :            :         }
     299                 :            : 
     300                 :          3 :         if (align < ARCH_SLAB_MINALIGN)
     301                 :            :                 align = ARCH_SLAB_MINALIGN;
     302                 :            : 
     303                 :          3 :         return ALIGN(align, sizeof(void *));
     304                 :            : }
     305                 :            : 
     306                 :            : /*
     307                 :            :  * Find a mergeable slab cache
     308                 :            :  */
     309                 :          3 : int slab_unmergeable(struct kmem_cache *s)
     310                 :            : {
     311                 :          3 :         if (slab_nomerge || (s->flags & SLAB_NEVER_MERGE))
     312                 :            :                 return 1;
     313                 :            : 
     314                 :          3 :         if (!is_root_cache(s))
     315                 :            :                 return 1;
     316                 :            : 
     317                 :          3 :         if (s->ctor)
     318                 :            :                 return 1;
     319                 :            : 
     320                 :          3 :         if (s->usersize)
     321                 :            :                 return 1;
     322                 :            : 
     323                 :            :         /*
     324                 :            :          * We may have set a slab to be unmergeable during bootstrap.
     325                 :            :          */
     326                 :          3 :         if (s->refcount < 0)
     327                 :            :                 return 1;
     328                 :            : 
     329                 :            : #ifdef CONFIG_MEMCG_KMEM
     330                 :            :         /*
     331                 :            :          * Skip the dying kmem_cache.
     332                 :            :          */
     333                 :          3 :         if (s->memcg_params.dying)
     334                 :            :                 return 1;
     335                 :            : #endif
     336                 :            : 
     337                 :          3 :         return 0;
     338                 :            : }
     339                 :            : 
     340                 :          3 : struct kmem_cache *find_mergeable(unsigned int size, unsigned int align,
     341                 :            :                 slab_flags_t flags, const char *name, void (*ctor)(void *))
     342                 :            : {
     343                 :            :         struct kmem_cache *s;
     344                 :            : 
     345                 :          3 :         if (slab_nomerge)
     346                 :            :                 return NULL;
     347                 :            : 
     348                 :          3 :         if (ctor)
     349                 :            :                 return NULL;
     350                 :            : 
     351                 :          3 :         size = ALIGN(size, sizeof(void *));
     352                 :            :         align = calculate_alignment(flags, align, size);
     353                 :          3 :         size = ALIGN(size, align);
     354                 :          3 :         flags = kmem_cache_flags(size, flags, name, NULL);
     355                 :            : 
     356                 :          3 :         if (flags & SLAB_NEVER_MERGE)
     357                 :            :                 return NULL;
     358                 :            : 
     359                 :          3 :         list_for_each_entry_reverse(s, &slab_root_caches, root_caches_node) {
     360                 :          3 :                 if (slab_unmergeable(s))
     361                 :          3 :                         continue;
     362                 :            : 
     363                 :          3 :                 if (size > s->size)
     364                 :          3 :                         continue;
     365                 :            : 
     366                 :          3 :                 if ((flags & SLAB_MERGE_SAME) != (s->flags & SLAB_MERGE_SAME))
     367                 :          3 :                         continue;
     368                 :            :                 /*
     369                 :            :                  * Check if alignment is compatible.
     370                 :            :                  * Courtesy of Adrian Drzewiecki
     371                 :            :                  */
     372                 :          3 :                 if ((s->size & ~(align - 1)) != s->size)
     373                 :          3 :                         continue;
     374                 :            : 
     375                 :          3 :                 if (s->size - size >= sizeof(void *))
     376                 :          3 :                         continue;
     377                 :            : 
     378                 :            :                 if (IS_ENABLED(CONFIG_SLAB) && align &&
     379                 :            :                         (align > s->align || s->align % align))
     380                 :            :                         continue;
     381                 :            : 
     382                 :          3 :                 return s;
     383                 :            :         }
     384                 :            :         return NULL;
     385                 :            : }
     386                 :            : 
     387                 :          3 : static struct kmem_cache *create_cache(const char *name,
     388                 :            :                 unsigned int object_size, unsigned int align,
     389                 :            :                 slab_flags_t flags, unsigned int useroffset,
     390                 :            :                 unsigned int usersize, void (*ctor)(void *),
     391                 :            :                 struct mem_cgroup *memcg, struct kmem_cache *root_cache)
     392                 :            : {
     393                 :            :         struct kmem_cache *s;
     394                 :            :         int err;
     395                 :            : 
     396                 :          3 :         if (WARN_ON(useroffset + usersize > object_size))
     397                 :            :                 useroffset = usersize = 0;
     398                 :            : 
     399                 :            :         err = -ENOMEM;
     400                 :          3 :         s = kmem_cache_zalloc(kmem_cache, GFP_KERNEL);
     401                 :          3 :         if (!s)
     402                 :            :                 goto out;
     403                 :            : 
     404                 :          3 :         s->name = name;
     405                 :          3 :         s->size = s->object_size = object_size;
     406                 :          3 :         s->align = align;
     407                 :          3 :         s->ctor = ctor;
     408                 :          3 :         s->useroffset = useroffset;
     409                 :          3 :         s->usersize = usersize;
     410                 :            : 
     411                 :          3 :         err = init_memcg_params(s, root_cache);
     412                 :          3 :         if (err)
     413                 :            :                 goto out_free_cache;
     414                 :            : 
     415                 :          3 :         err = __kmem_cache_create(s, flags);
     416                 :          3 :         if (err)
     417                 :            :                 goto out_free_cache;
     418                 :            : 
     419                 :          3 :         s->refcount = 1;
     420                 :          3 :         list_add(&s->list, &slab_caches);
     421                 :          3 :         memcg_link_cache(s, memcg);
     422                 :            : out:
     423                 :          3 :         if (err)
     424                 :          0 :                 return ERR_PTR(err);
     425                 :            :         return s;
     426                 :            : 
     427                 :            : out_free_cache:
     428                 :          0 :         destroy_memcg_params(s);
     429                 :          0 :         kmem_cache_free(kmem_cache, s);
     430                 :          0 :         goto out;
     431                 :            : }
     432                 :            : 
     433                 :            : /**
     434                 :            :  * kmem_cache_create_usercopy - Create a cache with a region suitable
     435                 :            :  * for copying to userspace
     436                 :            :  * @name: A string which is used in /proc/slabinfo to identify this cache.
     437                 :            :  * @size: The size of objects to be created in this cache.
     438                 :            :  * @align: The required alignment for the objects.
     439                 :            :  * @flags: SLAB flags
     440                 :            :  * @useroffset: Usercopy region offset
     441                 :            :  * @usersize: Usercopy region size
     442                 :            :  * @ctor: A constructor for the objects.
     443                 :            :  *
     444                 :            :  * Cannot be called within a interrupt, but can be interrupted.
     445                 :            :  * The @ctor is run when new pages are allocated by the cache.
     446                 :            :  *
     447                 :            :  * The flags are
     448                 :            :  *
     449                 :            :  * %SLAB_POISON - Poison the slab with a known test pattern (a5a5a5a5)
     450                 :            :  * to catch references to uninitialised memory.
     451                 :            :  *
     452                 :            :  * %SLAB_RED_ZONE - Insert `Red` zones around the allocated memory to check
     453                 :            :  * for buffer overruns.
     454                 :            :  *
     455                 :            :  * %SLAB_HWCACHE_ALIGN - Align the objects in this cache to a hardware
     456                 :            :  * cacheline.  This can be beneficial if you're counting cycles as closely
     457                 :            :  * as davem.
     458                 :            :  *
     459                 :            :  * Return: a pointer to the cache on success, NULL on failure.
     460                 :            :  */
     461                 :            : struct kmem_cache *
     462                 :          3 : kmem_cache_create_usercopy(const char *name,
     463                 :            :                   unsigned int size, unsigned int align,
     464                 :            :                   slab_flags_t flags,
     465                 :            :                   unsigned int useroffset, unsigned int usersize,
     466                 :            :                   void (*ctor)(void *))
     467                 :            : {
     468                 :            :         struct kmem_cache *s = NULL;
     469                 :            :         const char *cache_name;
     470                 :            :         int err;
     471                 :            : 
     472                 :            :         get_online_cpus();
     473                 :            :         get_online_mems();
     474                 :          3 :         memcg_get_cache_ids();
     475                 :            : 
     476                 :          3 :         mutex_lock(&slab_mutex);
     477                 :            : 
     478                 :            :         err = kmem_cache_sanity_check(name, size);
     479                 :            :         if (err) {
     480                 :            :                 goto out_unlock;
     481                 :            :         }
     482                 :            : 
     483                 :            :         /* Refuse requests with allocator specific flags */
     484                 :          3 :         if (flags & ~SLAB_FLAGS_PERMITTED) {
     485                 :            :                 err = -EINVAL;
     486                 :            :                 goto out_unlock;
     487                 :            :         }
     488                 :            : 
     489                 :            :         /*
     490                 :            :          * Some allocators will constraint the set of valid flags to a subset
     491                 :            :          * of all flags. We expect them to define CACHE_CREATE_MASK in this
     492                 :            :          * case, and we'll just provide them with a sanitized version of the
     493                 :            :          * passed flags.
     494                 :            :          */
     495                 :          3 :         flags &= CACHE_CREATE_MASK;
     496                 :            : 
     497                 :            :         /* Fail closed on bad usersize of useroffset values. */
     498                 :          3 :         if (WARN_ON(!usersize && useroffset) ||
     499                 :          3 :             WARN_ON(size < usersize || size - usersize < useroffset))
     500                 :            :                 usersize = useroffset = 0;
     501                 :            : 
     502                 :          3 :         if (!usersize)
     503                 :          3 :                 s = __kmem_cache_alias(name, size, align, flags, ctor);
     504                 :          3 :         if (s)
     505                 :            :                 goto out_unlock;
     506                 :            : 
     507                 :          3 :         cache_name = kstrdup_const(name, GFP_KERNEL);
     508                 :          3 :         if (!cache_name) {
     509                 :            :                 err = -ENOMEM;
     510                 :            :                 goto out_unlock;
     511                 :            :         }
     512                 :            : 
     513                 :          3 :         s = create_cache(cache_name, size,
     514                 :            :                          calculate_alignment(flags, align, size),
     515                 :            :                          flags, useroffset, usersize, ctor, NULL, NULL);
     516                 :          3 :         if (IS_ERR(s)) {
     517                 :            :                 err = PTR_ERR(s);
     518                 :          0 :                 kfree_const(cache_name);
     519                 :            :         }
     520                 :            : 
     521                 :            : out_unlock:
     522                 :          3 :         mutex_unlock(&slab_mutex);
     523                 :            : 
     524                 :          3 :         memcg_put_cache_ids();
     525                 :            :         put_online_mems();
     526                 :            :         put_online_cpus();
     527                 :            : 
     528                 :          3 :         if (err) {
     529                 :          0 :                 if (flags & SLAB_PANIC)
     530                 :          0 :                         panic("kmem_cache_create: Failed to create slab '%s'. Error %d\n",
     531                 :            :                                 name, err);
     532                 :            :                 else {
     533                 :          0 :                         pr_warn("kmem_cache_create(%s) failed with error %d\n",
     534                 :            :                                 name, err);
     535                 :          0 :                         dump_stack();
     536                 :            :                 }
     537                 :          0 :                 return NULL;
     538                 :            :         }
     539                 :            :         return s;
     540                 :            : }
     541                 :            : EXPORT_SYMBOL(kmem_cache_create_usercopy);
     542                 :            : 
     543                 :            : /**
     544                 :            :  * kmem_cache_create - Create a cache.
     545                 :            :  * @name: A string which is used in /proc/slabinfo to identify this cache.
     546                 :            :  * @size: The size of objects to be created in this cache.
     547                 :            :  * @align: The required alignment for the objects.
     548                 :            :  * @flags: SLAB flags
     549                 :            :  * @ctor: A constructor for the objects.
     550                 :            :  *
     551                 :            :  * Cannot be called within a interrupt, but can be interrupted.
     552                 :            :  * The @ctor is run when new pages are allocated by the cache.
     553                 :            :  *
     554                 :            :  * The flags are
     555                 :            :  *
     556                 :            :  * %SLAB_POISON - Poison the slab with a known test pattern (a5a5a5a5)
     557                 :            :  * to catch references to uninitialised memory.
     558                 :            :  *
     559                 :            :  * %SLAB_RED_ZONE - Insert `Red` zones around the allocated memory to check
     560                 :            :  * for buffer overruns.
     561                 :            :  *
     562                 :            :  * %SLAB_HWCACHE_ALIGN - Align the objects in this cache to a hardware
     563                 :            :  * cacheline.  This can be beneficial if you're counting cycles as closely
     564                 :            :  * as davem.
     565                 :            :  *
     566                 :            :  * Return: a pointer to the cache on success, NULL on failure.
     567                 :            :  */
     568                 :            : struct kmem_cache *
     569                 :          3 : kmem_cache_create(const char *name, unsigned int size, unsigned int align,
     570                 :            :                 slab_flags_t flags, void (*ctor)(void *))
     571                 :            : {
     572                 :          3 :         return kmem_cache_create_usercopy(name, size, align, flags, 0, 0,
     573                 :            :                                           ctor);
     574                 :            : }
     575                 :            : EXPORT_SYMBOL(kmem_cache_create);
     576                 :            : 
     577                 :          0 : static void slab_caches_to_rcu_destroy_workfn(struct work_struct *work)
     578                 :            : {
     579                 :          0 :         LIST_HEAD(to_destroy);
     580                 :            :         struct kmem_cache *s, *s2;
     581                 :            : 
     582                 :            :         /*
     583                 :            :          * On destruction, SLAB_TYPESAFE_BY_RCU kmem_caches are put on the
     584                 :            :          * @slab_caches_to_rcu_destroy list.  The slab pages are freed
     585                 :            :          * through RCU and and the associated kmem_cache are dereferenced
     586                 :            :          * while freeing the pages, so the kmem_caches should be freed only
     587                 :            :          * after the pending RCU operations are finished.  As rcu_barrier()
     588                 :            :          * is a pretty slow operation, we batch all pending destructions
     589                 :            :          * asynchronously.
     590                 :            :          */
     591                 :          0 :         mutex_lock(&slab_mutex);
     592                 :            :         list_splice_init(&slab_caches_to_rcu_destroy, &to_destroy);
     593                 :          0 :         mutex_unlock(&slab_mutex);
     594                 :            : 
     595                 :          0 :         if (list_empty(&to_destroy))
     596                 :          0 :                 return;
     597                 :            : 
     598                 :          0 :         rcu_barrier();
     599                 :            : 
     600                 :          0 :         list_for_each_entry_safe(s, s2, &to_destroy, list) {
     601                 :            : #ifdef SLAB_SUPPORTS_SYSFS
     602                 :          0 :                 sysfs_slab_release(s);
     603                 :            : #else
     604                 :            :                 slab_kmem_cache_release(s);
     605                 :            : #endif
     606                 :            :         }
     607                 :            : }
     608                 :            : 
     609                 :          0 : static int shutdown_cache(struct kmem_cache *s)
     610                 :            : {
     611                 :            :         /* free asan quarantined objects */
     612                 :            :         kasan_cache_shutdown(s);
     613                 :            : 
     614                 :          0 :         if (__kmem_cache_shutdown(s) != 0)
     615                 :            :                 return -EBUSY;
     616                 :            : 
     617                 :          0 :         memcg_unlink_cache(s);
     618                 :            :         list_del(&s->list);
     619                 :            : 
     620                 :          0 :         if (s->flags & SLAB_TYPESAFE_BY_RCU) {
     621                 :            : #ifdef SLAB_SUPPORTS_SYSFS
     622                 :          0 :                 sysfs_slab_unlink(s);
     623                 :            : #endif
     624                 :          0 :                 list_add_tail(&s->list, &slab_caches_to_rcu_destroy);
     625                 :            :                 schedule_work(&slab_caches_to_rcu_destroy_work);
     626                 :            :         } else {
     627                 :            : #ifdef SLAB_SUPPORTS_SYSFS
     628                 :          0 :                 sysfs_slab_unlink(s);
     629                 :          0 :                 sysfs_slab_release(s);
     630                 :            : #else
     631                 :            :                 slab_kmem_cache_release(s);
     632                 :            : #endif
     633                 :            :         }
     634                 :            : 
     635                 :            :         return 0;
     636                 :            : }
     637                 :            : 
     638                 :            : #ifdef CONFIG_MEMCG_KMEM
     639                 :            : /*
     640                 :            :  * memcg_create_kmem_cache - Create a cache for a memory cgroup.
     641                 :            :  * @memcg: The memory cgroup the new cache is for.
     642                 :            :  * @root_cache: The parent of the new cache.
     643                 :            :  *
     644                 :            :  * This function attempts to create a kmem cache that will serve allocation
     645                 :            :  * requests going from @memcg to @root_cache. The new cache inherits properties
     646                 :            :  * from its parent.
     647                 :            :  */
     648                 :          0 : void memcg_create_kmem_cache(struct mem_cgroup *memcg,
     649                 :            :                              struct kmem_cache *root_cache)
     650                 :            : {
     651                 :            :         static char memcg_name_buf[NAME_MAX + 1]; /* protected by slab_mutex */
     652                 :            :         struct cgroup_subsys_state *css = &memcg->css;
     653                 :            :         struct memcg_cache_array *arr;
     654                 :            :         struct kmem_cache *s = NULL;
     655                 :            :         char *cache_name;
     656                 :            :         int idx;
     657                 :            : 
     658                 :            :         get_online_cpus();
     659                 :            :         get_online_mems();
     660                 :            : 
     661                 :          0 :         mutex_lock(&slab_mutex);
     662                 :            : 
     663                 :            :         /*
     664                 :            :          * The memory cgroup could have been offlined while the cache
     665                 :            :          * creation work was pending.
     666                 :            :          */
     667                 :          0 :         if (memcg->kmem_state != KMEM_ONLINE)
     668                 :            :                 goto out_unlock;
     669                 :            : 
     670                 :            :         idx = memcg_cache_id(memcg);
     671                 :          0 :         arr = rcu_dereference_protected(root_cache->memcg_params.memcg_caches,
     672                 :            :                                         lockdep_is_held(&slab_mutex));
     673                 :            : 
     674                 :            :         /*
     675                 :            :          * Since per-memcg caches are created asynchronously on first
     676                 :            :          * allocation (see memcg_kmem_get_cache()), several threads can try to
     677                 :            :          * create the same cache, but only one of them may succeed.
     678                 :            :          */
     679                 :          0 :         if (arr->entries[idx])
     680                 :            :                 goto out_unlock;
     681                 :            : 
     682                 :          0 :         cgroup_name(css->cgroup, memcg_name_buf, sizeof(memcg_name_buf));
     683                 :          0 :         cache_name = kasprintf(GFP_KERNEL, "%s(%llu:%s)", root_cache->name,
     684                 :            :                                css->serial_nr, memcg_name_buf);
     685                 :          0 :         if (!cache_name)
     686                 :            :                 goto out_unlock;
     687                 :            : 
     688                 :          0 :         s = create_cache(cache_name, root_cache->object_size,
     689                 :            :                          root_cache->align,
     690                 :          0 :                          root_cache->flags & CACHE_CREATE_MASK,
     691                 :            :                          root_cache->useroffset, root_cache->usersize,
     692                 :            :                          root_cache->ctor, memcg, root_cache);
     693                 :            :         /*
     694                 :            :          * If we could not create a memcg cache, do not complain, because
     695                 :            :          * that's not critical at all as we can always proceed with the root
     696                 :            :          * cache.
     697                 :            :          */
     698                 :          0 :         if (IS_ERR(s)) {
     699                 :          0 :                 kfree(cache_name);
     700                 :          0 :                 goto out_unlock;
     701                 :            :         }
     702                 :            : 
     703                 :            :         /*
     704                 :            :          * Since readers won't lock (see memcg_kmem_get_cache()), we need a
     705                 :            :          * barrier here to ensure nobody will see the kmem_cache partially
     706                 :            :          * initialized.
     707                 :            :          */
     708                 :          0 :         smp_wmb();
     709                 :          0 :         arr->entries[idx] = s;
     710                 :            : 
     711                 :            : out_unlock:
     712                 :          0 :         mutex_unlock(&slab_mutex);
     713                 :            : 
     714                 :            :         put_online_mems();
     715                 :            :         put_online_cpus();
     716                 :          0 : }
     717                 :            : 
     718                 :          0 : static void kmemcg_workfn(struct work_struct *work)
     719                 :            : {
     720                 :          0 :         struct kmem_cache *s = container_of(work, struct kmem_cache,
     721                 :            :                                             memcg_params.work);
     722                 :            : 
     723                 :            :         get_online_cpus();
     724                 :            :         get_online_mems();
     725                 :            : 
     726                 :          0 :         mutex_lock(&slab_mutex);
     727                 :          0 :         s->memcg_params.work_fn(s);
     728                 :          0 :         mutex_unlock(&slab_mutex);
     729                 :            : 
     730                 :            :         put_online_mems();
     731                 :            :         put_online_cpus();
     732                 :          0 : }
     733                 :            : 
     734                 :          0 : static void kmemcg_rcufn(struct rcu_head *head)
     735                 :            : {
     736                 :            :         struct kmem_cache *s = container_of(head, struct kmem_cache,
     737                 :            :                                             memcg_params.rcu_head);
     738                 :            : 
     739                 :            :         /*
     740                 :            :          * We need to grab blocking locks.  Bounce to ->work.  The
     741                 :            :          * work item shares the space with the RCU head and can't be
     742                 :            :          * initialized eariler.
     743                 :            :          */
     744                 :          0 :         INIT_WORK(&s->memcg_params.work, kmemcg_workfn);
     745                 :          0 :         queue_work(memcg_kmem_cache_wq, &s->memcg_params.work);
     746                 :          0 : }
     747                 :            : 
     748                 :          0 : static void kmemcg_cache_shutdown_fn(struct kmem_cache *s)
     749                 :            : {
     750                 :          0 :         WARN_ON(shutdown_cache(s));
     751                 :          0 : }
     752                 :            : 
     753                 :          0 : static void kmemcg_cache_shutdown(struct percpu_ref *percpu_ref)
     754                 :            : {
     755                 :            :         struct kmem_cache *s = container_of(percpu_ref, struct kmem_cache,
     756                 :            :                                             memcg_params.refcnt);
     757                 :            :         unsigned long flags;
     758                 :            : 
     759                 :          0 :         spin_lock_irqsave(&memcg_kmem_wq_lock, flags);
     760                 :          0 :         if (s->memcg_params.root_cache->memcg_params.dying)
     761                 :            :                 goto unlock;
     762                 :            : 
     763                 :          0 :         s->memcg_params.work_fn = kmemcg_cache_shutdown_fn;
     764                 :          0 :         INIT_WORK(&s->memcg_params.work, kmemcg_workfn);
     765                 :          0 :         queue_work(memcg_kmem_cache_wq, &s->memcg_params.work);
     766                 :            : 
     767                 :            : unlock:
     768                 :            :         spin_unlock_irqrestore(&memcg_kmem_wq_lock, flags);
     769                 :          0 : }
     770                 :            : 
     771                 :          0 : static void kmemcg_cache_deactivate_after_rcu(struct kmem_cache *s)
     772                 :            : {
     773                 :          0 :         __kmemcg_cache_deactivate_after_rcu(s);
     774                 :          0 :         percpu_ref_kill(&s->memcg_params.refcnt);
     775                 :          0 : }
     776                 :            : 
     777                 :          0 : static void kmemcg_cache_deactivate(struct kmem_cache *s)
     778                 :            : {
     779                 :          0 :         if (WARN_ON_ONCE(is_root_cache(s)))
     780                 :          0 :                 return;
     781                 :            : 
     782                 :          0 :         __kmemcg_cache_deactivate(s);
     783                 :          0 :         s->flags |= SLAB_DEACTIVATED;
     784                 :            : 
     785                 :            :         /*
     786                 :            :          * memcg_kmem_wq_lock is used to synchronize memcg_params.dying
     787                 :            :          * flag and make sure that no new kmem_cache deactivation tasks
     788                 :            :          * are queued (see flush_memcg_workqueue() ).
     789                 :            :          */
     790                 :            :         spin_lock_irq(&memcg_kmem_wq_lock);
     791                 :          0 :         if (s->memcg_params.root_cache->memcg_params.dying)
     792                 :            :                 goto unlock;
     793                 :            : 
     794                 :          0 :         s->memcg_params.work_fn = kmemcg_cache_deactivate_after_rcu;
     795                 :          0 :         call_rcu(&s->memcg_params.rcu_head, kmemcg_rcufn);
     796                 :            : unlock:
     797                 :            :         spin_unlock_irq(&memcg_kmem_wq_lock);
     798                 :            : }
     799                 :            : 
     800                 :          0 : void memcg_deactivate_kmem_caches(struct mem_cgroup *memcg,
     801                 :            :                                   struct mem_cgroup *parent)
     802                 :            : {
     803                 :            :         int idx;
     804                 :            :         struct memcg_cache_array *arr;
     805                 :            :         struct kmem_cache *s, *c;
     806                 :            :         unsigned int nr_reparented;
     807                 :            : 
     808                 :            :         idx = memcg_cache_id(memcg);
     809                 :            : 
     810                 :            :         get_online_cpus();
     811                 :            :         get_online_mems();
     812                 :            : 
     813                 :          0 :         mutex_lock(&slab_mutex);
     814                 :          0 :         list_for_each_entry(s, &slab_root_caches, root_caches_node) {
     815                 :          0 :                 arr = rcu_dereference_protected(s->memcg_params.memcg_caches,
     816                 :            :                                                 lockdep_is_held(&slab_mutex));
     817                 :          0 :                 c = arr->entries[idx];
     818                 :          0 :                 if (!c)
     819                 :          0 :                         continue;
     820                 :            : 
     821                 :          0 :                 kmemcg_cache_deactivate(c);
     822                 :          0 :                 arr->entries[idx] = NULL;
     823                 :            :         }
     824                 :            :         nr_reparented = 0;
     825                 :          0 :         list_for_each_entry(s, &memcg->kmem_caches,
     826                 :            :                             memcg_params.kmem_caches_node) {
     827                 :          0 :                 WRITE_ONCE(s->memcg_params.memcg, parent);
     828                 :            :                 css_put(&memcg->css);
     829                 :          0 :                 nr_reparented++;
     830                 :            :         }
     831                 :          0 :         if (nr_reparented) {
     832                 :          0 :                 list_splice_init(&memcg->kmem_caches,
     833                 :            :                                  &parent->kmem_caches);
     834                 :            :                 css_get_many(&parent->css, nr_reparented);
     835                 :            :         }
     836                 :          0 :         mutex_unlock(&slab_mutex);
     837                 :            : 
     838                 :            :         put_online_mems();
     839                 :            :         put_online_cpus();
     840                 :          0 : }
     841                 :            : 
     842                 :          0 : static int shutdown_memcg_caches(struct kmem_cache *s)
     843                 :            : {
     844                 :            :         struct memcg_cache_array *arr;
     845                 :            :         struct kmem_cache *c, *c2;
     846                 :          0 :         LIST_HEAD(busy);
     847                 :            :         int i;
     848                 :            : 
     849                 :          0 :         BUG_ON(!is_root_cache(s));
     850                 :            : 
     851                 :            :         /*
     852                 :            :          * First, shutdown active caches, i.e. caches that belong to online
     853                 :            :          * memory cgroups.
     854                 :            :          */
     855                 :          0 :         arr = rcu_dereference_protected(s->memcg_params.memcg_caches,
     856                 :            :                                         lockdep_is_held(&slab_mutex));
     857                 :          0 :         for_each_memcg_cache_index(i) {
     858                 :          0 :                 c = arr->entries[i];
     859                 :          0 :                 if (!c)
     860                 :          0 :                         continue;
     861                 :          0 :                 if (shutdown_cache(c))
     862                 :            :                         /*
     863                 :            :                          * The cache still has objects. Move it to a temporary
     864                 :            :                          * list so as not to try to destroy it for a second
     865                 :            :                          * time while iterating over inactive caches below.
     866                 :            :                          */
     867                 :          0 :                         list_move(&c->memcg_params.children_node, &busy);
     868                 :            :                 else
     869                 :            :                         /*
     870                 :            :                          * The cache is empty and will be destroyed soon. Clear
     871                 :            :                          * the pointer to it in the memcg_caches array so that
     872                 :            :                          * it will never be accessed even if the root cache
     873                 :            :                          * stays alive.
     874                 :            :                          */
     875                 :          0 :                         arr->entries[i] = NULL;
     876                 :            :         }
     877                 :            : 
     878                 :            :         /*
     879                 :            :          * Second, shutdown all caches left from memory cgroups that are now
     880                 :            :          * offline.
     881                 :            :          */
     882                 :          0 :         list_for_each_entry_safe(c, c2, &s->memcg_params.children,
     883                 :            :                                  memcg_params.children_node)
     884                 :          0 :                 shutdown_cache(c);
     885                 :            : 
     886                 :          0 :         list_splice(&busy, &s->memcg_params.children);
     887                 :            : 
     888                 :            :         /*
     889                 :            :          * A cache being destroyed must be empty. In particular, this means
     890                 :            :          * that all per memcg caches attached to it must be empty too.
     891                 :            :          */
     892                 :          0 :         if (!list_empty(&s->memcg_params.children))
     893                 :            :                 return -EBUSY;
     894                 :          0 :         return 0;
     895                 :            : }
     896                 :            : 
     897                 :            : static void memcg_set_kmem_cache_dying(struct kmem_cache *s)
     898                 :            : {
     899                 :            :         spin_lock_irq(&memcg_kmem_wq_lock);
     900                 :          0 :         s->memcg_params.dying = true;
     901                 :            :         spin_unlock_irq(&memcg_kmem_wq_lock);
     902                 :            : }
     903                 :            : 
     904                 :          0 : static void flush_memcg_workqueue(struct kmem_cache *s)
     905                 :            : {
     906                 :            :         /*
     907                 :            :          * SLAB and SLUB deactivate the kmem_caches through call_rcu. Make
     908                 :            :          * sure all registered rcu callbacks have been invoked.
     909                 :            :          */
     910                 :          0 :         rcu_barrier();
     911                 :            : 
     912                 :            :         /*
     913                 :            :          * SLAB and SLUB create memcg kmem_caches through workqueue and SLUB
     914                 :            :          * deactivates the memcg kmem_caches through workqueue. Make sure all
     915                 :            :          * previous workitems on workqueue are processed.
     916                 :            :          */
     917                 :          0 :         if (likely(memcg_kmem_cache_wq))
     918                 :          0 :                 flush_workqueue(memcg_kmem_cache_wq);
     919                 :            : 
     920                 :            :         /*
     921                 :            :          * If we're racing with children kmem_cache deactivation, it might
     922                 :            :          * take another rcu grace period to complete their destruction.
     923                 :            :          * At this moment the corresponding percpu_ref_kill() call should be
     924                 :            :          * done, but it might take another rcu grace period to complete
     925                 :            :          * switching to the atomic mode.
     926                 :            :          * Please, note that we check without grabbing the slab_mutex. It's safe
     927                 :            :          * because at this moment the children list can't grow.
     928                 :            :          */
     929                 :          0 :         if (!list_empty(&s->memcg_params.children))
     930                 :          0 :                 rcu_barrier();
     931                 :          0 : }
     932                 :            : #else
     933                 :            : static inline int shutdown_memcg_caches(struct kmem_cache *s)
     934                 :            : {
     935                 :            :         return 0;
     936                 :            : }
     937                 :            : #endif /* CONFIG_MEMCG_KMEM */
     938                 :            : 
     939                 :          0 : void slab_kmem_cache_release(struct kmem_cache *s)
     940                 :            : {
     941                 :          0 :         __kmem_cache_release(s);
     942                 :          0 :         destroy_memcg_params(s);
     943                 :          0 :         kfree_const(s->name);
     944                 :          0 :         kmem_cache_free(kmem_cache, s);
     945                 :          0 : }
     946                 :            : 
     947                 :          0 : void kmem_cache_destroy(struct kmem_cache *s)
     948                 :            : {
     949                 :            :         int err;
     950                 :            : 
     951                 :          0 :         if (unlikely(!s))
     952                 :          0 :                 return;
     953                 :            : 
     954                 :            :         get_online_cpus();
     955                 :            :         get_online_mems();
     956                 :            : 
     957                 :          0 :         mutex_lock(&slab_mutex);
     958                 :            : 
     959                 :          0 :         s->refcount--;
     960                 :          0 :         if (s->refcount)
     961                 :            :                 goto out_unlock;
     962                 :            : 
     963                 :            : #ifdef CONFIG_MEMCG_KMEM
     964                 :            :         memcg_set_kmem_cache_dying(s);
     965                 :            : 
     966                 :          0 :         mutex_unlock(&slab_mutex);
     967                 :            : 
     968                 :            :         put_online_mems();
     969                 :            :         put_online_cpus();
     970                 :            : 
     971                 :          0 :         flush_memcg_workqueue(s);
     972                 :            : 
     973                 :            :         get_online_cpus();
     974                 :            :         get_online_mems();
     975                 :            : 
     976                 :          0 :         mutex_lock(&slab_mutex);
     977                 :            : #endif
     978                 :            : 
     979                 :          0 :         err = shutdown_memcg_caches(s);
     980                 :          0 :         if (!err)
     981                 :          0 :                 err = shutdown_cache(s);
     982                 :            : 
     983                 :          0 :         if (err) {
     984                 :          0 :                 pr_err("kmem_cache_destroy %s: Slab cache still has objects\n",
     985                 :            :                        s->name);
     986                 :          0 :                 dump_stack();
     987                 :            :         }
     988                 :            : out_unlock:
     989                 :          0 :         mutex_unlock(&slab_mutex);
     990                 :            : 
     991                 :            :         put_online_mems();
     992                 :            :         put_online_cpus();
     993                 :            : }
     994                 :            : EXPORT_SYMBOL(kmem_cache_destroy);
     995                 :            : 
     996                 :            : /**
     997                 :            :  * kmem_cache_shrink - Shrink a cache.
     998                 :            :  * @cachep: The cache to shrink.
     999                 :            :  *
    1000                 :            :  * Releases as many slabs as possible for a cache.
    1001                 :            :  * To help debugging, a zero exit status indicates all slabs were released.
    1002                 :            :  *
    1003                 :            :  * Return: %0 if all slabs were released, non-zero otherwise
    1004                 :            :  */
    1005                 :          0 : int kmem_cache_shrink(struct kmem_cache *cachep)
    1006                 :            : {
    1007                 :            :         int ret;
    1008                 :            : 
    1009                 :            :         get_online_cpus();
    1010                 :            :         get_online_mems();
    1011                 :            :         kasan_cache_shrink(cachep);
    1012                 :          0 :         ret = __kmem_cache_shrink(cachep);
    1013                 :            :         put_online_mems();
    1014                 :            :         put_online_cpus();
    1015                 :          0 :         return ret;
    1016                 :            : }
    1017                 :            : EXPORT_SYMBOL(kmem_cache_shrink);
    1018                 :            : 
    1019                 :            : /**
    1020                 :            :  * kmem_cache_shrink_all - shrink a cache and all memcg caches for root cache
    1021                 :            :  * @s: The cache pointer
    1022                 :            :  */
    1023                 :          0 : void kmem_cache_shrink_all(struct kmem_cache *s)
    1024                 :            : {
    1025                 :            :         struct kmem_cache *c;
    1026                 :            : 
    1027                 :          0 :         if (!IS_ENABLED(CONFIG_MEMCG_KMEM) || !is_root_cache(s)) {
    1028                 :            :                 kmem_cache_shrink(s);
    1029                 :          0 :                 return;
    1030                 :            :         }
    1031                 :            : 
    1032                 :            :         get_online_cpus();
    1033                 :            :         get_online_mems();
    1034                 :            :         kasan_cache_shrink(s);
    1035                 :          0 :         __kmem_cache_shrink(s);
    1036                 :            : 
    1037                 :            :         /*
    1038                 :            :          * We have to take the slab_mutex to protect from the memcg list
    1039                 :            :          * modification.
    1040                 :            :          */
    1041                 :          0 :         mutex_lock(&slab_mutex);
    1042                 :          0 :         for_each_memcg_cache(c, s) {
    1043                 :            :                 /*
    1044                 :            :                  * Don't need to shrink deactivated memcg caches.
    1045                 :            :                  */
    1046                 :          0 :                 if (s->flags & SLAB_DEACTIVATED)
    1047                 :          0 :                         continue;
    1048                 :            :                 kasan_cache_shrink(c);
    1049                 :          0 :                 __kmem_cache_shrink(c);
    1050                 :            :         }
    1051                 :          0 :         mutex_unlock(&slab_mutex);
    1052                 :            :         put_online_mems();
    1053                 :            :         put_online_cpus();
    1054                 :            : }
    1055                 :            : 
    1056                 :          3 : bool slab_is_available(void)
    1057                 :            : {
    1058                 :          3 :         return slab_state >= UP;
    1059                 :            : }
    1060                 :            : 
    1061                 :            : #ifndef CONFIG_SLOB
    1062                 :            : /* Create a cache during boot when no slab services are available yet */
    1063                 :          3 : void __init create_boot_cache(struct kmem_cache *s, const char *name,
    1064                 :            :                 unsigned int size, slab_flags_t flags,
    1065                 :            :                 unsigned int useroffset, unsigned int usersize)
    1066                 :            : {
    1067                 :            :         int err;
    1068                 :            :         unsigned int align = ARCH_KMALLOC_MINALIGN;
    1069                 :            : 
    1070                 :          3 :         s->name = name;
    1071                 :          3 :         s->size = s->object_size = size;
    1072                 :            : 
    1073                 :            :         /*
    1074                 :            :          * For power of two sizes, guarantee natural alignment for kmalloc
    1075                 :            :          * caches, regardless of SL*B debugging options.
    1076                 :            :          */
    1077                 :          3 :         if (is_power_of_2(size))
    1078                 :          3 :                 align = max(align, size);
    1079                 :          3 :         s->align = calculate_alignment(flags, align, size);
    1080                 :            : 
    1081                 :          3 :         s->useroffset = useroffset;
    1082                 :          3 :         s->usersize = usersize;
    1083                 :            : 
    1084                 :            :         slab_init_memcg_params(s);
    1085                 :            : 
    1086                 :          3 :         err = __kmem_cache_create(s, flags);
    1087                 :            : 
    1088                 :          3 :         if (err)
    1089                 :          0 :                 panic("Creation of kmalloc slab %s size=%u failed. Reason %d\n",
    1090                 :            :                                         name, size, err);
    1091                 :            : 
    1092                 :          3 :         s->refcount = -1;    /* Exempt from merging for now */
    1093                 :          3 : }
    1094                 :            : 
    1095                 :          3 : struct kmem_cache *__init create_kmalloc_cache(const char *name,
    1096                 :            :                 unsigned int size, slab_flags_t flags,
    1097                 :            :                 unsigned int useroffset, unsigned int usersize)
    1098                 :            : {
    1099                 :          3 :         struct kmem_cache *s = kmem_cache_zalloc(kmem_cache, GFP_NOWAIT);
    1100                 :            : 
    1101                 :          3 :         if (!s)
    1102                 :          0 :                 panic("Out of memory when creating slab %s\n", name);
    1103                 :            : 
    1104                 :          3 :         create_boot_cache(s, name, size, flags, useroffset, usersize);
    1105                 :          3 :         list_add(&s->list, &slab_caches);
    1106                 :          3 :         memcg_link_cache(s, NULL);
    1107                 :          3 :         s->refcount = 1;
    1108                 :          3 :         return s;
    1109                 :            : }
    1110                 :            : 
    1111                 :            : struct kmem_cache *
    1112                 :            : kmalloc_caches[NR_KMALLOC_TYPES][KMALLOC_SHIFT_HIGH + 1] __ro_after_init =
    1113                 :            : { /* initialization for https://bugs.llvm.org/show_bug.cgi?id=42570 */ };
    1114                 :            : EXPORT_SYMBOL(kmalloc_caches);
    1115                 :            : 
    1116                 :            : /*
    1117                 :            :  * Conversion table for small slabs sizes / 8 to the index in the
    1118                 :            :  * kmalloc array. This is necessary for slabs < 192 since we have non power
    1119                 :            :  * of two cache sizes there. The size of larger slabs can be determined using
    1120                 :            :  * fls.
    1121                 :            :  */
    1122                 :            : static u8 size_index[24] __ro_after_init = {
    1123                 :            :         3,      /* 8 */
    1124                 :            :         4,      /* 16 */
    1125                 :            :         5,      /* 24 */
    1126                 :            :         5,      /* 32 */
    1127                 :            :         6,      /* 40 */
    1128                 :            :         6,      /* 48 */
    1129                 :            :         6,      /* 56 */
    1130                 :            :         6,      /* 64 */
    1131                 :            :         1,      /* 72 */
    1132                 :            :         1,      /* 80 */
    1133                 :            :         1,      /* 88 */
    1134                 :            :         1,      /* 96 */
    1135                 :            :         7,      /* 104 */
    1136                 :            :         7,      /* 112 */
    1137                 :            :         7,      /* 120 */
    1138                 :            :         7,      /* 128 */
    1139                 :            :         2,      /* 136 */
    1140                 :            :         2,      /* 144 */
    1141                 :            :         2,      /* 152 */
    1142                 :            :         2,      /* 160 */
    1143                 :            :         2,      /* 168 */
    1144                 :            :         2,      /* 176 */
    1145                 :            :         2,      /* 184 */
    1146                 :            :         2       /* 192 */
    1147                 :            : };
    1148                 :            : 
    1149                 :            : static inline unsigned int size_index_elem(unsigned int bytes)
    1150                 :            : {
    1151                 :          3 :         return (bytes - 1) / 8;
    1152                 :            : }
    1153                 :            : 
    1154                 :            : /*
    1155                 :            :  * Find the kmem_cache structure that serves a given size of
    1156                 :            :  * allocation
    1157                 :            :  */
    1158                 :          3 : struct kmem_cache *kmalloc_slab(size_t size, gfp_t flags)
    1159                 :            : {
    1160                 :            :         unsigned int index;
    1161                 :            : 
    1162                 :          3 :         if (size <= 192) {
    1163                 :          3 :                 if (!size)
    1164                 :            :                         return ZERO_SIZE_PTR;
    1165                 :            : 
    1166                 :          3 :                 index = size_index[size_index_elem(size)];
    1167                 :            :         } else {
    1168                 :          3 :                 if (WARN_ON_ONCE(size > KMALLOC_MAX_CACHE_SIZE))
    1169                 :            :                         return NULL;
    1170                 :          3 :                 index = fls(size - 1);
    1171                 :            :         }
    1172                 :            : 
    1173                 :          3 :         return kmalloc_caches[kmalloc_type(flags)][index];
    1174                 :            : }
    1175                 :            : 
    1176                 :            : /*
    1177                 :            :  * kmalloc_info[] is to make slub_debug=,kmalloc-xx option work at boot time.
    1178                 :            :  * kmalloc_index() supports up to 2^26=64MB, so the final entry of the table is
    1179                 :            :  * kmalloc-67108864.
    1180                 :            :  */
    1181                 :            : const struct kmalloc_info_struct kmalloc_info[] __initconst = {
    1182                 :            :         {NULL,                      0},         {"kmalloc-96",             96},
    1183                 :            :         {"kmalloc-192",           192},               {"kmalloc-8",               8},
    1184                 :            :         {"kmalloc-16",             16},               {"kmalloc-32",             32},
    1185                 :            :         {"kmalloc-64",             64},               {"kmalloc-128",           128},
    1186                 :            :         {"kmalloc-256",           256},               {"kmalloc-512",           512},
    1187                 :            :         {"kmalloc-1k",           1024},               {"kmalloc-2k",           2048},
    1188                 :            :         {"kmalloc-4k",           4096},               {"kmalloc-8k",           8192},
    1189                 :            :         {"kmalloc-16k",         16384},               {"kmalloc-32k",         32768},
    1190                 :            :         {"kmalloc-64k",         65536},               {"kmalloc-128k",       131072},
    1191                 :            :         {"kmalloc-256k",       262144},               {"kmalloc-512k",       524288},
    1192                 :            :         {"kmalloc-1M",        1048576},               {"kmalloc-2M",        2097152},
    1193                 :            :         {"kmalloc-4M",        4194304},               {"kmalloc-8M",        8388608},
    1194                 :            :         {"kmalloc-16M",      16777216},               {"kmalloc-32M",      33554432},
    1195                 :            :         {"kmalloc-64M",      67108864}
    1196                 :            : };
    1197                 :            : 
    1198                 :            : /*
    1199                 :            :  * Patch up the size_index table if we have strange large alignment
    1200                 :            :  * requirements for the kmalloc array. This is only the case for
    1201                 :            :  * MIPS it seems. The standard arches will not generate any code here.
    1202                 :            :  *
    1203                 :            :  * Largest permitted alignment is 256 bytes due to the way we
    1204                 :            :  * handle the index determination for the smaller caches.
    1205                 :            :  *
    1206                 :            :  * Make sure that nothing crazy happens if someone starts tinkering
    1207                 :            :  * around with ARCH_KMALLOC_MINALIGN
    1208                 :            :  */
    1209                 :          3 : void __init setup_kmalloc_cache_index_table(void)
    1210                 :            : {
    1211                 :            :         unsigned int i;
    1212                 :            : 
    1213                 :            :         BUILD_BUG_ON(KMALLOC_MIN_SIZE > 256 ||
    1214                 :            :                 (KMALLOC_MIN_SIZE & (KMALLOC_MIN_SIZE - 1)));
    1215                 :            : 
    1216                 :          3 :         for (i = 8; i < KMALLOC_MIN_SIZE; i += 8) {
    1217                 :            :                 unsigned int elem = size_index_elem(i);
    1218                 :            : 
    1219                 :          3 :                 if (elem >= ARRAY_SIZE(size_index))
    1220                 :            :                         break;
    1221                 :          3 :                 size_index[elem] = KMALLOC_SHIFT_LOW;
    1222                 :            :         }
    1223                 :            : 
    1224                 :            :         if (KMALLOC_MIN_SIZE >= 64) {
    1225                 :            :                 /*
    1226                 :            :                  * The 96 byte size cache is not used if the alignment
    1227                 :            :                  * is 64 byte.
    1228                 :            :                  */
    1229                 :          3 :                 for (i = 64 + 8; i <= 96; i += 8)
    1230                 :          3 :                         size_index[size_index_elem(i)] = 7;
    1231                 :            : 
    1232                 :            :         }
    1233                 :            : 
    1234                 :            :         if (KMALLOC_MIN_SIZE >= 128) {
    1235                 :            :                 /*
    1236                 :            :                  * The 192 byte sized cache is not used if the alignment
    1237                 :            :                  * is 128 byte. Redirect kmalloc to use the 256 byte cache
    1238                 :            :                  * instead.
    1239                 :            :                  */
    1240                 :            :                 for (i = 128 + 8; i <= 192; i += 8)
    1241                 :            :                         size_index[size_index_elem(i)] = 8;
    1242                 :            :         }
    1243                 :          3 : }
    1244                 :            : 
    1245                 :            : static const char *
    1246                 :          3 : kmalloc_cache_name(const char *prefix, unsigned int size)
    1247                 :            : {
    1248                 :            : 
    1249                 :            :         static const char units[3] = "\0kM";
    1250                 :            :         int idx = 0;
    1251                 :            : 
    1252                 :          3 :         while (size >= 1024 && (size % 1024 == 0)) {
    1253                 :          3 :                 size /= 1024;
    1254                 :          3 :                 idx++;
    1255                 :            :         }
    1256                 :            : 
    1257                 :          3 :         return kasprintf(GFP_NOWAIT, "%s-%u%c", prefix, size, units[idx]);
    1258                 :            : }
    1259                 :            : 
    1260                 :            : static void __init
    1261                 :          3 : new_kmalloc_cache(int idx, int type, slab_flags_t flags)
    1262                 :            : {
    1263                 :            :         const char *name;
    1264                 :            : 
    1265                 :          3 :         if (type == KMALLOC_RECLAIM) {
    1266                 :          3 :                 flags |= SLAB_RECLAIM_ACCOUNT;
    1267                 :          3 :                 name = kmalloc_cache_name("kmalloc-rcl",
    1268                 :            :                                                 kmalloc_info[idx].size);
    1269                 :          3 :                 BUG_ON(!name);
    1270                 :            :         } else {
    1271                 :          3 :                 name = kmalloc_info[idx].name;
    1272                 :            :         }
    1273                 :            : 
    1274                 :          3 :         kmalloc_caches[type][idx] = create_kmalloc_cache(name,
    1275                 :            :                                         kmalloc_info[idx].size, flags, 0,
    1276                 :            :                                         kmalloc_info[idx].size);
    1277                 :          3 : }
    1278                 :            : 
    1279                 :            : /*
    1280                 :            :  * Create the kmalloc array. Some of the regular kmalloc arrays
    1281                 :            :  * may already have been created because they were needed to
    1282                 :            :  * enable allocations for slab creation.
    1283                 :            :  */
    1284                 :          3 : void __init create_kmalloc_caches(slab_flags_t flags)
    1285                 :            : {
    1286                 :            :         int i, type;
    1287                 :            : 
    1288                 :          3 :         for (type = KMALLOC_NORMAL; type <= KMALLOC_RECLAIM; type++) {
    1289                 :          3 :                 for (i = KMALLOC_SHIFT_LOW; i <= KMALLOC_SHIFT_HIGH; i++) {
    1290                 :          3 :                         if (!kmalloc_caches[type][i])
    1291                 :          3 :                                 new_kmalloc_cache(i, type, flags);
    1292                 :            : 
    1293                 :            :                         /*
    1294                 :            :                          * Caches that are not of the two-to-the-power-of size.
    1295                 :            :                          * These have to be created immediately after the
    1296                 :            :                          * earlier power of two caches
    1297                 :            :                          */
    1298                 :            :                         if (KMALLOC_MIN_SIZE <= 32 && i == 6 &&
    1299                 :            :                                         !kmalloc_caches[type][1])
    1300                 :            :                                 new_kmalloc_cache(1, type, flags);
    1301                 :          3 :                         if (KMALLOC_MIN_SIZE <= 64 && i == 7 &&
    1302                 :          3 :                                         !kmalloc_caches[type][2])
    1303                 :          3 :                                 new_kmalloc_cache(2, type, flags);
    1304                 :            :                 }
    1305                 :            :         }
    1306                 :            : 
    1307                 :            :         /* Kmalloc array is now usable */
    1308                 :          3 :         slab_state = UP;
    1309                 :            : 
    1310                 :            : #ifdef CONFIG_ZONE_DMA
    1311                 :            :         for (i = 0; i <= KMALLOC_SHIFT_HIGH; i++) {
    1312                 :            :                 struct kmem_cache *s = kmalloc_caches[KMALLOC_NORMAL][i];
    1313                 :            : 
    1314                 :            :                 if (s) {
    1315                 :            :                         unsigned int size = kmalloc_size(i);
    1316                 :            :                         const char *n = kmalloc_cache_name("dma-kmalloc", size);
    1317                 :            : 
    1318                 :            :                         BUG_ON(!n);
    1319                 :            :                         kmalloc_caches[KMALLOC_DMA][i] = create_kmalloc_cache(
    1320                 :            :                                 n, size, SLAB_CACHE_DMA | flags, 0, 0);
    1321                 :            :                 }
    1322                 :            :         }
    1323                 :            : #endif
    1324                 :          3 : }
    1325                 :            : #endif /* !CONFIG_SLOB */
    1326                 :            : 
    1327                 :            : /*
    1328                 :            :  * To avoid unnecessary overhead, we pass through large allocation requests
    1329                 :            :  * directly to the page allocator. We use __GFP_COMP, because we will need to
    1330                 :            :  * know the allocation order to free the pages properly in kfree.
    1331                 :            :  */
    1332                 :          3 : void *kmalloc_order(size_t size, gfp_t flags, unsigned int order)
    1333                 :            : {
    1334                 :            :         void *ret = NULL;
    1335                 :            :         struct page *page;
    1336                 :            : 
    1337                 :          3 :         flags |= __GFP_COMP;
    1338                 :            :         page = alloc_pages(flags, order);
    1339                 :          3 :         if (likely(page)) {
    1340                 :            :                 ret = page_address(page);
    1341                 :          3 :                 mod_node_page_state(page_pgdat(page), NR_SLAB_UNRECLAIMABLE,
    1342                 :          3 :                                     1 << order);
    1343                 :            :         }
    1344                 :            :         ret = kasan_kmalloc_large(ret, size, flags);
    1345                 :            :         /* As ret might get tagged, call kmemleak hook after KASAN. */
    1346                 :            :         kmemleak_alloc(ret, size, 1, flags);
    1347                 :          3 :         return ret;
    1348                 :            : }
    1349                 :            : EXPORT_SYMBOL(kmalloc_order);
    1350                 :            : 
    1351                 :            : #ifdef CONFIG_TRACING
    1352                 :          3 : void *kmalloc_order_trace(size_t size, gfp_t flags, unsigned int order)
    1353                 :            : {
    1354                 :          3 :         void *ret = kmalloc_order(size, flags, order);
    1355                 :          3 :         trace_kmalloc(_RET_IP_, ret, size, PAGE_SIZE << order, flags);
    1356                 :          3 :         return ret;
    1357                 :            : }
    1358                 :            : EXPORT_SYMBOL(kmalloc_order_trace);
    1359                 :            : #endif
    1360                 :            : 
    1361                 :            : #ifdef CONFIG_SLAB_FREELIST_RANDOM
    1362                 :            : /* Randomize a generic freelist */
    1363                 :            : static void freelist_randomize(struct rnd_state *state, unsigned int *list,
    1364                 :            :                                unsigned int count)
    1365                 :            : {
    1366                 :            :         unsigned int rand;
    1367                 :            :         unsigned int i;
    1368                 :            : 
    1369                 :            :         for (i = 0; i < count; i++)
    1370                 :            :                 list[i] = i;
    1371                 :            : 
    1372                 :            :         /* Fisher-Yates shuffle */
    1373                 :            :         for (i = count - 1; i > 0; i--) {
    1374                 :            :                 rand = prandom_u32_state(state);
    1375                 :            :                 rand %= (i + 1);
    1376                 :            :                 swap(list[i], list[rand]);
    1377                 :            :         }
    1378                 :            : }
    1379                 :            : 
    1380                 :            : /* Create a random sequence per cache */
    1381                 :            : int cache_random_seq_create(struct kmem_cache *cachep, unsigned int count,
    1382                 :            :                                     gfp_t gfp)
    1383                 :            : {
    1384                 :            :         struct rnd_state state;
    1385                 :            : 
    1386                 :            :         if (count < 2 || cachep->random_seq)
    1387                 :            :                 return 0;
    1388                 :            : 
    1389                 :            :         cachep->random_seq = kcalloc(count, sizeof(unsigned int), gfp);
    1390                 :            :         if (!cachep->random_seq)
    1391                 :            :                 return -ENOMEM;
    1392                 :            : 
    1393                 :            :         /* Get best entropy at this stage of boot */
    1394                 :            :         prandom_seed_state(&state, get_random_long());
    1395                 :            : 
    1396                 :            :         freelist_randomize(&state, cachep->random_seq, count);
    1397                 :            :         return 0;
    1398                 :            : }
    1399                 :            : 
    1400                 :            : /* Destroy the per-cache random freelist sequence */
    1401                 :            : void cache_random_seq_destroy(struct kmem_cache *cachep)
    1402                 :            : {
    1403                 :            :         kfree(cachep->random_seq);
    1404                 :            :         cachep->random_seq = NULL;
    1405                 :            : }
    1406                 :            : #endif /* CONFIG_SLAB_FREELIST_RANDOM */
    1407                 :            : 
    1408                 :            : #if defined(CONFIG_SLAB) || defined(CONFIG_SLUB_DEBUG)
    1409                 :            : #ifdef CONFIG_SLAB
    1410                 :            : #define SLABINFO_RIGHTS (0600)
    1411                 :            : #else
    1412                 :            : #define SLABINFO_RIGHTS (0400)
    1413                 :            : #endif
    1414                 :            : 
    1415                 :          0 : static void print_slabinfo_header(struct seq_file *m)
    1416                 :            : {
    1417                 :            :         /*
    1418                 :            :          * Output format version, so at least we can change it
    1419                 :            :          * without _too_ many complaints.
    1420                 :            :          */
    1421                 :            : #ifdef CONFIG_DEBUG_SLAB
    1422                 :            :         seq_puts(m, "slabinfo - version: 2.1 (statistics)\n");
    1423                 :            : #else
    1424                 :          0 :         seq_puts(m, "slabinfo - version: 2.1\n");
    1425                 :            : #endif
    1426                 :          0 :         seq_puts(m, "# name            <active_objs> <num_objs> <objsize> <objperslab> <pagesperslab>");
    1427                 :          0 :         seq_puts(m, " : tunables <limit> <batchcount> <sharedfactor>");
    1428                 :          0 :         seq_puts(m, " : slabdata <active_slabs> <num_slabs> <sharedavail>");
    1429                 :            : #ifdef CONFIG_DEBUG_SLAB
    1430                 :            :         seq_puts(m, " : globalstat <listallocs> <maxobjs> <grown> <reaped> <error> <maxfreeable> <nodeallocs> <remotefrees> <alienoverflow>");
    1431                 :            :         seq_puts(m, " : cpustat <allochit> <allocmiss> <freehit> <freemiss>");
    1432                 :            : #endif
    1433                 :          0 :         seq_putc(m, '\n');
    1434                 :          0 : }
    1435                 :            : 
    1436                 :          0 : void *slab_start(struct seq_file *m, loff_t *pos)
    1437                 :            : {
    1438                 :          0 :         mutex_lock(&slab_mutex);
    1439                 :          0 :         return seq_list_start(&slab_root_caches, *pos);
    1440                 :            : }
    1441                 :            : 
    1442                 :          0 : void *slab_next(struct seq_file *m, void *p, loff_t *pos)
    1443                 :            : {
    1444                 :          0 :         return seq_list_next(p, &slab_root_caches, pos);
    1445                 :            : }
    1446                 :            : 
    1447                 :          0 : void slab_stop(struct seq_file *m, void *p)
    1448                 :            : {
    1449                 :          0 :         mutex_unlock(&slab_mutex);
    1450                 :          0 : }
    1451                 :            : 
    1452                 :            : static void
    1453                 :          0 : memcg_accumulate_slabinfo(struct kmem_cache *s, struct slabinfo *info)
    1454                 :            : {
    1455                 :            :         struct kmem_cache *c;
    1456                 :            :         struct slabinfo sinfo;
    1457                 :            : 
    1458                 :          0 :         if (!is_root_cache(s))
    1459                 :          0 :                 return;
    1460                 :            : 
    1461                 :          0 :         for_each_memcg_cache(c, s) {
    1462                 :          0 :                 memset(&sinfo, 0, sizeof(sinfo));
    1463                 :          0 :                 get_slabinfo(c, &sinfo);
    1464                 :            : 
    1465                 :          0 :                 info->active_slabs += sinfo.active_slabs;
    1466                 :          0 :                 info->num_slabs += sinfo.num_slabs;
    1467                 :          0 :                 info->shared_avail += sinfo.shared_avail;
    1468                 :          0 :                 info->active_objs += sinfo.active_objs;
    1469                 :          0 :                 info->num_objs += sinfo.num_objs;
    1470                 :            :         }
    1471                 :            : }
    1472                 :            : 
    1473                 :          0 : static void cache_show(struct kmem_cache *s, struct seq_file *m)
    1474                 :            : {
    1475                 :            :         struct slabinfo sinfo;
    1476                 :            : 
    1477                 :          0 :         memset(&sinfo, 0, sizeof(sinfo));
    1478                 :          0 :         get_slabinfo(s, &sinfo);
    1479                 :            : 
    1480                 :          0 :         memcg_accumulate_slabinfo(s, &sinfo);
    1481                 :            : 
    1482                 :          0 :         seq_printf(m, "%-17s %6lu %6lu %6u %4u %4d",
    1483                 :            :                    cache_name(s), sinfo.active_objs, sinfo.num_objs, s->size,
    1484                 :          0 :                    sinfo.objects_per_slab, (1 << sinfo.cache_order));
    1485                 :            : 
    1486                 :          0 :         seq_printf(m, " : tunables %4u %4u %4u",
    1487                 :            :                    sinfo.limit, sinfo.batchcount, sinfo.shared);
    1488                 :          0 :         seq_printf(m, " : slabdata %6lu %6lu %6lu",
    1489                 :            :                    sinfo.active_slabs, sinfo.num_slabs, sinfo.shared_avail);
    1490                 :          0 :         slabinfo_show_stats(m, s);
    1491                 :          0 :         seq_putc(m, '\n');
    1492                 :          0 : }
    1493                 :            : 
    1494                 :          0 : static int slab_show(struct seq_file *m, void *p)
    1495                 :            : {
    1496                 :          0 :         struct kmem_cache *s = list_entry(p, struct kmem_cache, root_caches_node);
    1497                 :            : 
    1498                 :          0 :         if (p == slab_root_caches.next)
    1499                 :          0 :                 print_slabinfo_header(m);
    1500                 :          0 :         cache_show(s, m);
    1501                 :          0 :         return 0;
    1502                 :            : }
    1503                 :            : 
    1504                 :          0 : void dump_unreclaimable_slab(void)
    1505                 :            : {
    1506                 :            :         struct kmem_cache *s, *s2;
    1507                 :            :         struct slabinfo sinfo;
    1508                 :            : 
    1509                 :            :         /*
    1510                 :            :          * Here acquiring slab_mutex is risky since we don't prefer to get
    1511                 :            :          * sleep in oom path. But, without mutex hold, it may introduce a
    1512                 :            :          * risk of crash.
    1513                 :            :          * Use mutex_trylock to protect the list traverse, dump nothing
    1514                 :            :          * without acquiring the mutex.
    1515                 :            :          */
    1516                 :          0 :         if (!mutex_trylock(&slab_mutex)) {
    1517                 :          0 :                 pr_warn("excessive unreclaimable slab but cannot dump stats\n");
    1518                 :          0 :                 return;
    1519                 :            :         }
    1520                 :            : 
    1521                 :          0 :         pr_info("Unreclaimable slab info:\n");
    1522                 :          0 :         pr_info("Name                      Used          Total\n");
    1523                 :            : 
    1524                 :          0 :         list_for_each_entry_safe(s, s2, &slab_caches, list) {
    1525                 :          0 :                 if (!is_root_cache(s) || (s->flags & SLAB_RECLAIM_ACCOUNT))
    1526                 :          0 :                         continue;
    1527                 :            : 
    1528                 :          0 :                 get_slabinfo(s, &sinfo);
    1529                 :            : 
    1530                 :          0 :                 if (sinfo.num_objs > 0)
    1531                 :          0 :                         pr_info("%-17s %10luKB %10luKB\n", cache_name(s),
    1532                 :            :                                 (sinfo.active_objs * s->size) / 1024,
    1533                 :            :                                 (sinfo.num_objs * s->size) / 1024);
    1534                 :            :         }
    1535                 :          0 :         mutex_unlock(&slab_mutex);
    1536                 :            : }
    1537                 :            : 
    1538                 :            : #if defined(CONFIG_MEMCG)
    1539                 :          0 : void *memcg_slab_start(struct seq_file *m, loff_t *pos)
    1540                 :            : {
    1541                 :            :         struct mem_cgroup *memcg = mem_cgroup_from_seq(m);
    1542                 :            : 
    1543                 :          0 :         mutex_lock(&slab_mutex);
    1544                 :          0 :         return seq_list_start(&memcg->kmem_caches, *pos);
    1545                 :            : }
    1546                 :            : 
    1547                 :          0 : void *memcg_slab_next(struct seq_file *m, void *p, loff_t *pos)
    1548                 :            : {
    1549                 :            :         struct mem_cgroup *memcg = mem_cgroup_from_seq(m);
    1550                 :            : 
    1551                 :          0 :         return seq_list_next(p, &memcg->kmem_caches, pos);
    1552                 :            : }
    1553                 :            : 
    1554                 :          0 : void memcg_slab_stop(struct seq_file *m, void *p)
    1555                 :            : {
    1556                 :          0 :         mutex_unlock(&slab_mutex);
    1557                 :          0 : }
    1558                 :            : 
    1559                 :          0 : int memcg_slab_show(struct seq_file *m, void *p)
    1560                 :            : {
    1561                 :          0 :         struct kmem_cache *s = list_entry(p, struct kmem_cache,
    1562                 :            :                                           memcg_params.kmem_caches_node);
    1563                 :            :         struct mem_cgroup *memcg = mem_cgroup_from_seq(m);
    1564                 :            : 
    1565                 :          0 :         if (p == memcg->kmem_caches.next)
    1566                 :          0 :                 print_slabinfo_header(m);
    1567                 :          0 :         cache_show(s, m);
    1568                 :          0 :         return 0;
    1569                 :            : }
    1570                 :            : #endif
    1571                 :            : 
    1572                 :            : /*
    1573                 :            :  * slabinfo_op - iterator that generates /proc/slabinfo
    1574                 :            :  *
    1575                 :            :  * Output layout:
    1576                 :            :  * cache-name
    1577                 :            :  * num-active-objs
    1578                 :            :  * total-objs
    1579                 :            :  * object size
    1580                 :            :  * num-active-slabs
    1581                 :            :  * total-slabs
    1582                 :            :  * num-pages-per-slab
    1583                 :            :  * + further values on SMP and with statistics enabled
    1584                 :            :  */
    1585                 :            : static const struct seq_operations slabinfo_op = {
    1586                 :            :         .start = slab_start,
    1587                 :            :         .next = slab_next,
    1588                 :            :         .stop = slab_stop,
    1589                 :            :         .show = slab_show,
    1590                 :            : };
    1591                 :            : 
    1592                 :          0 : static int slabinfo_open(struct inode *inode, struct file *file)
    1593                 :            : {
    1594                 :          0 :         return seq_open(file, &slabinfo_op);
    1595                 :            : }
    1596                 :            : 
    1597                 :            : static const struct file_operations proc_slabinfo_operations = {
    1598                 :            :         .open           = slabinfo_open,
    1599                 :            :         .read           = seq_read,
    1600                 :            :         .write          = slabinfo_write,
    1601                 :            :         .llseek         = seq_lseek,
    1602                 :            :         .release        = seq_release,
    1603                 :            : };
    1604                 :            : 
    1605                 :          3 : static int __init slab_proc_init(void)
    1606                 :            : {
    1607                 :          3 :         proc_create("slabinfo", SLABINFO_RIGHTS, NULL,
    1608                 :            :                                                 &proc_slabinfo_operations);
    1609                 :          3 :         return 0;
    1610                 :            : }
    1611                 :            : module_init(slab_proc_init);
    1612                 :            : 
    1613                 :            : #if defined(CONFIG_DEBUG_FS) && defined(CONFIG_MEMCG_KMEM)
    1614                 :            : /*
    1615                 :            :  * Display information about kmem caches that have child memcg caches.
    1616                 :            :  */
    1617                 :          0 : static int memcg_slabinfo_show(struct seq_file *m, void *unused)
    1618                 :            : {
    1619                 :            :         struct kmem_cache *s, *c;
    1620                 :            :         struct slabinfo sinfo;
    1621                 :            : 
    1622                 :          0 :         mutex_lock(&slab_mutex);
    1623                 :          0 :         seq_puts(m, "# <name> <css_id[:dead|deact]> <active_objs> <num_objs>");
    1624                 :          0 :         seq_puts(m, " <active_slabs> <num_slabs>\n");
    1625                 :          0 :         list_for_each_entry(s, &slab_root_caches, root_caches_node) {
    1626                 :            :                 /*
    1627                 :            :                  * Skip kmem caches that don't have any memcg children.
    1628                 :            :                  */
    1629                 :          0 :                 if (list_empty(&s->memcg_params.children))
    1630                 :          0 :                         continue;
    1631                 :            : 
    1632                 :          0 :                 memset(&sinfo, 0, sizeof(sinfo));
    1633                 :          0 :                 get_slabinfo(s, &sinfo);
    1634                 :          0 :                 seq_printf(m, "%-17s root       %6lu %6lu %6lu %6lu\n",
    1635                 :            :                            cache_name(s), sinfo.active_objs, sinfo.num_objs,
    1636                 :            :                            sinfo.active_slabs, sinfo.num_slabs);
    1637                 :            : 
    1638                 :          0 :                 for_each_memcg_cache(c, s) {
    1639                 :            :                         struct cgroup_subsys_state *css;
    1640                 :            :                         char *status = "";
    1641                 :            : 
    1642                 :          0 :                         css = &c->memcg_params.memcg->css;
    1643                 :          0 :                         if (!(css->flags & CSS_ONLINE))
    1644                 :            :                                 status = ":dead";
    1645                 :          0 :                         else if (c->flags & SLAB_DEACTIVATED)
    1646                 :            :                                 status = ":deact";
    1647                 :            : 
    1648                 :          0 :                         memset(&sinfo, 0, sizeof(sinfo));
    1649                 :          0 :                         get_slabinfo(c, &sinfo);
    1650                 :          0 :                         seq_printf(m, "%-17s %4d%-6s %6lu %6lu %6lu %6lu\n",
    1651                 :            :                                    cache_name(c), css->id, status,
    1652                 :            :                                    sinfo.active_objs, sinfo.num_objs,
    1653                 :            :                                    sinfo.active_slabs, sinfo.num_slabs);
    1654                 :            :                 }
    1655                 :            :         }
    1656                 :          0 :         mutex_unlock(&slab_mutex);
    1657                 :          0 :         return 0;
    1658                 :            : }
    1659                 :          0 : DEFINE_SHOW_ATTRIBUTE(memcg_slabinfo);
    1660                 :            : 
    1661                 :          3 : static int __init memcg_slabinfo_init(void)
    1662                 :            : {
    1663                 :          3 :         debugfs_create_file("memcg_slabinfo", S_IFREG | S_IRUGO,
    1664                 :            :                             NULL, NULL, &memcg_slabinfo_fops);
    1665                 :          3 :         return 0;
    1666                 :            : }
    1667                 :            : 
    1668                 :            : late_initcall(memcg_slabinfo_init);
    1669                 :            : #endif /* CONFIG_DEBUG_FS && CONFIG_MEMCG_KMEM */
    1670                 :            : #endif /* CONFIG_SLAB || CONFIG_SLUB_DEBUG */
    1671                 :            : 
    1672                 :            : static __always_inline void *__do_krealloc(const void *p, size_t new_size,
    1673                 :            :                                            gfp_t flags)
    1674                 :            : {
    1675                 :            :         void *ret;
    1676                 :            :         size_t ks = 0;
    1677                 :            : 
    1678                 :          3 :         if (p)
    1679                 :          3 :                 ks = ksize(p);
    1680                 :            : 
    1681                 :          3 :         if (ks >= new_size) {
    1682                 :          3 :                 p = kasan_krealloc((void *)p, new_size, flags);
    1683                 :            :                 return (void *)p;
    1684                 :            :         }
    1685                 :            : 
    1686                 :          3 :         ret = kmalloc_track_caller(new_size, flags);
    1687                 :          3 :         if (ret && p)
    1688                 :          3 :                 memcpy(ret, p, ks);
    1689                 :            : 
    1690                 :            :         return ret;
    1691                 :            : }
    1692                 :            : 
    1693                 :            : /**
    1694                 :            :  * __krealloc - like krealloc() but don't free @p.
    1695                 :            :  * @p: object to reallocate memory for.
    1696                 :            :  * @new_size: how many bytes of memory are required.
    1697                 :            :  * @flags: the type of memory to allocate.
    1698                 :            :  *
    1699                 :            :  * This function is like krealloc() except it never frees the originally
    1700                 :            :  * allocated buffer. Use this if you don't want to free the buffer immediately
    1701                 :            :  * like, for example, with RCU.
    1702                 :            :  *
    1703                 :            :  * Return: pointer to the allocated memory or %NULL in case of error
    1704                 :            :  */
    1705                 :          0 : void *__krealloc(const void *p, size_t new_size, gfp_t flags)
    1706                 :            : {
    1707                 :          0 :         if (unlikely(!new_size))
    1708                 :            :                 return ZERO_SIZE_PTR;
    1709                 :            : 
    1710                 :          0 :         return __do_krealloc(p, new_size, flags);
    1711                 :            : 
    1712                 :            : }
    1713                 :            : EXPORT_SYMBOL(__krealloc);
    1714                 :            : 
    1715                 :            : /**
    1716                 :            :  * krealloc - reallocate memory. The contents will remain unchanged.
    1717                 :            :  * @p: object to reallocate memory for.
    1718                 :            :  * @new_size: how many bytes of memory are required.
    1719                 :            :  * @flags: the type of memory to allocate.
    1720                 :            :  *
    1721                 :            :  * The contents of the object pointed to are preserved up to the
    1722                 :            :  * lesser of the new and old sizes.  If @p is %NULL, krealloc()
    1723                 :            :  * behaves exactly like kmalloc().  If @new_size is 0 and @p is not a
    1724                 :            :  * %NULL pointer, the object pointed to is freed.
    1725                 :            :  *
    1726                 :            :  * Return: pointer to the allocated memory or %NULL in case of error
    1727                 :            :  */
    1728                 :          3 : void *krealloc(const void *p, size_t new_size, gfp_t flags)
    1729                 :            : {
    1730                 :            :         void *ret;
    1731                 :            : 
    1732                 :          3 :         if (unlikely(!new_size)) {
    1733                 :          0 :                 kfree(p);
    1734                 :          0 :                 return ZERO_SIZE_PTR;
    1735                 :            :         }
    1736                 :            : 
    1737                 :            :         ret = __do_krealloc(p, new_size, flags);
    1738                 :          3 :         if (ret && kasan_reset_tag(p) != kasan_reset_tag(ret))
    1739                 :          3 :                 kfree(p);
    1740                 :            : 
    1741                 :          3 :         return ret;
    1742                 :            : }
    1743                 :            : EXPORT_SYMBOL(krealloc);
    1744                 :            : 
    1745                 :            : /**
    1746                 :            :  * kzfree - like kfree but zero memory
    1747                 :            :  * @p: object to free memory of
    1748                 :            :  *
    1749                 :            :  * The memory of the object @p points to is zeroed before freed.
    1750                 :            :  * If @p is %NULL, kzfree() does nothing.
    1751                 :            :  *
    1752                 :            :  * Note: this function zeroes the whole allocated buffer which can be a good
    1753                 :            :  * deal bigger than the requested buffer size passed to kmalloc(). So be
    1754                 :            :  * careful when using this function in performance sensitive code.
    1755                 :            :  */
    1756                 :          3 : void kzfree(const void *p)
    1757                 :            : {
    1758                 :            :         size_t ks;
    1759                 :            :         void *mem = (void *)p;
    1760                 :            : 
    1761                 :          3 :         if (unlikely(ZERO_OR_NULL_PTR(mem)))
    1762                 :          3 :                 return;
    1763                 :          3 :         ks = ksize(mem);
    1764                 :            :         memzero_explicit(mem, ks);
    1765                 :          3 :         kfree(mem);
    1766                 :            : }
    1767                 :            : EXPORT_SYMBOL(kzfree);
    1768                 :            : 
    1769                 :            : /**
    1770                 :            :  * ksize - get the actual amount of memory allocated for a given object
    1771                 :            :  * @objp: Pointer to the object
    1772                 :            :  *
    1773                 :            :  * kmalloc may internally round up allocations and return more memory
    1774                 :            :  * than requested. ksize() can be used to determine the actual amount of
    1775                 :            :  * memory allocated. The caller may use this additional memory, even though
    1776                 :            :  * a smaller amount of memory was initially specified with the kmalloc call.
    1777                 :            :  * The caller must guarantee that objp points to a valid object previously
    1778                 :            :  * allocated with either kmalloc() or kmem_cache_alloc(). The object
    1779                 :            :  * must not be freed during the duration of the call.
    1780                 :            :  *
    1781                 :            :  * Return: size of the actual memory used by @objp in bytes
    1782                 :            :  */
    1783                 :          3 : size_t ksize(const void *objp)
    1784                 :            : {
    1785                 :            :         size_t size;
    1786                 :            : 
    1787                 :          3 :         if (WARN_ON_ONCE(!objp))
    1788                 :            :                 return 0;
    1789                 :            :         /*
    1790                 :            :          * We need to check that the pointed to object is valid, and only then
    1791                 :            :          * unpoison the shadow memory below. We use __kasan_check_read(), to
    1792                 :            :          * generate a more useful report at the time ksize() is called (rather
    1793                 :            :          * than later where behaviour is undefined due to potential
    1794                 :            :          * use-after-free or double-free).
    1795                 :            :          *
    1796                 :            :          * If the pointed to memory is invalid we return 0, to avoid users of
    1797                 :            :          * ksize() writing to and potentially corrupting the memory region.
    1798                 :            :          *
    1799                 :            :          * We want to perform the check before __ksize(), to avoid potentially
    1800                 :            :          * crashing in __ksize() due to accessing invalid metadata.
    1801                 :            :          */
    1802                 :          3 :         if (unlikely(objp == ZERO_SIZE_PTR) || !__kasan_check_read(objp, 1))
    1803                 :            :                 return 0;
    1804                 :            : 
    1805                 :          3 :         size = __ksize(objp);
    1806                 :            :         /*
    1807                 :            :          * We assume that ksize callers could use whole allocated area,
    1808                 :            :          * so we need to unpoison this area.
    1809                 :            :          */
    1810                 :            :         kasan_unpoison_shadow(objp, size);
    1811                 :          3 :         return size;
    1812                 :            : }
    1813                 :            : EXPORT_SYMBOL(ksize);
    1814                 :            : 
    1815                 :            : /* Tracepoints definitions. */
    1816                 :            : EXPORT_TRACEPOINT_SYMBOL(kmalloc);
    1817                 :            : EXPORT_TRACEPOINT_SYMBOL(kmem_cache_alloc);
    1818                 :            : EXPORT_TRACEPOINT_SYMBOL(kmalloc_node);
    1819                 :            : EXPORT_TRACEPOINT_SYMBOL(kmem_cache_alloc_node);
    1820                 :            : EXPORT_TRACEPOINT_SYMBOL(kfree);
    1821                 :            : EXPORT_TRACEPOINT_SYMBOL(kmem_cache_free);
    1822                 :            : 
    1823                 :          3 : int should_failslab(struct kmem_cache *s, gfp_t gfpflags)
    1824                 :            : {
    1825                 :            :         if (__should_failslab(s, gfpflags))
    1826                 :            :                 return -ENOMEM;
    1827                 :            :         return 0;
    1828                 :            : }
    1829                 :            : ALLOW_ERROR_INJECTION(should_failslab, ERRNO);
    

Generated by: LCOV version 1.14