Branch data Line data Source code
1 : : // SPDX-License-Identifier: GPL-2.0-only
2 : : /*
3 : : * Copyright (c) 2013 Red Hat, Inc. and Parallels Inc. All rights reserved.
4 : : * Authors: David Chinner and Glauber Costa
5 : : *
6 : : * Generic LRU infrastructure
7 : : */
8 : : #include <linux/kernel.h>
9 : : #include <linux/module.h>
10 : : #include <linux/mm.h>
11 : : #include <linux/list_lru.h>
12 : : #include <linux/slab.h>
13 : : #include <linux/mutex.h>
14 : : #include <linux/memcontrol.h>
15 : : #include "slab.h"
16 : :
17 : : #ifdef CONFIG_MEMCG_KMEM
18 : : static LIST_HEAD(list_lrus);
19 : : static DEFINE_MUTEX(list_lrus_mutex);
20 : :
21 : 3 : static void list_lru_register(struct list_lru *lru)
22 : : {
23 : 3 : mutex_lock(&list_lrus_mutex);
24 : 3 : list_add(&lru->list, &list_lrus);
25 : 3 : mutex_unlock(&list_lrus_mutex);
26 : 3 : }
27 : :
28 : 3 : static void list_lru_unregister(struct list_lru *lru)
29 : : {
30 : 3 : mutex_lock(&list_lrus_mutex);
31 : : list_del(&lru->list);
32 : 3 : mutex_unlock(&list_lrus_mutex);
33 : 3 : }
34 : :
35 : : static int lru_shrinker_id(struct list_lru *lru)
36 : : {
37 : 3 : return lru->shrinker_id;
38 : : }
39 : :
40 : : static inline bool list_lru_memcg_aware(struct list_lru *lru)
41 : : {
42 : 3 : return lru->memcg_aware;
43 : : }
44 : :
45 : : static inline struct list_lru_one *
46 : : list_lru_from_memcg_idx(struct list_lru_node *nlru, int idx)
47 : : {
48 : : struct list_lru_memcg *memcg_lrus;
49 : : /*
50 : : * Either lock or RCU protects the array of per cgroup lists
51 : : * from relocation (see memcg_update_list_lru_node).
52 : : */
53 : 3 : memcg_lrus = rcu_dereference_check(nlru->memcg_lrus,
54 : : lockdep_is_held(&nlru->lock));
55 : 3 : if (memcg_lrus && idx >= 0)
56 : 0 : return memcg_lrus->lru[idx];
57 : 3 : return &nlru->lru;
58 : : }
59 : :
60 : : static __always_inline struct mem_cgroup *mem_cgroup_from_kmem(void *ptr)
61 : : {
62 : : struct page *page;
63 : :
64 : 3 : if (!memcg_kmem_enabled())
65 : : return NULL;
66 : 0 : page = virt_to_head_page(ptr);
67 : 0 : return memcg_from_slab_page(page);
68 : : }
69 : :
70 : : static inline struct list_lru_one *
71 : 3 : list_lru_from_kmem(struct list_lru_node *nlru, void *ptr,
72 : : struct mem_cgroup **memcg_ptr)
73 : : {
74 : 3 : struct list_lru_one *l = &nlru->lru;
75 : : struct mem_cgroup *memcg = NULL;
76 : :
77 : 3 : if (!nlru->memcg_lrus)
78 : : goto out;
79 : :
80 : : memcg = mem_cgroup_from_kmem(ptr);
81 : 3 : if (!memcg)
82 : : goto out;
83 : :
84 : : l = list_lru_from_memcg_idx(nlru, memcg_cache_id(memcg));
85 : : out:
86 : 3 : if (memcg_ptr)
87 : 3 : *memcg_ptr = memcg;
88 : 3 : return l;
89 : : }
90 : : #else
91 : : static void list_lru_register(struct list_lru *lru)
92 : : {
93 : : }
94 : :
95 : : static void list_lru_unregister(struct list_lru *lru)
96 : : {
97 : : }
98 : :
99 : : static int lru_shrinker_id(struct list_lru *lru)
100 : : {
101 : : return -1;
102 : : }
103 : :
104 : : static inline bool list_lru_memcg_aware(struct list_lru *lru)
105 : : {
106 : : return false;
107 : : }
108 : :
109 : : static inline struct list_lru_one *
110 : : list_lru_from_memcg_idx(struct list_lru_node *nlru, int idx)
111 : : {
112 : : return &nlru->lru;
113 : : }
114 : :
115 : : static inline struct list_lru_one *
116 : : list_lru_from_kmem(struct list_lru_node *nlru, void *ptr,
117 : : struct mem_cgroup **memcg_ptr)
118 : : {
119 : : if (memcg_ptr)
120 : : *memcg_ptr = NULL;
121 : : return &nlru->lru;
122 : : }
123 : : #endif /* CONFIG_MEMCG_KMEM */
124 : :
125 : 3 : bool list_lru_add(struct list_lru *lru, struct list_head *item)
126 : : {
127 : : int nid = page_to_nid(virt_to_page(item));
128 : 3 : struct list_lru_node *nlru = &lru->node[nid];
129 : : struct mem_cgroup *memcg;
130 : : struct list_lru_one *l;
131 : :
132 : : spin_lock(&nlru->lock);
133 : 3 : if (list_empty(item)) {
134 : 3 : l = list_lru_from_kmem(nlru, item, &memcg);
135 : 3 : list_add_tail(item, &l->list);
136 : : /* Set shrinker bit if the first element was added */
137 : 3 : if (!l->nr_items++)
138 : 3 : memcg_set_shrinker_bit(memcg, nid,
139 : : lru_shrinker_id(lru));
140 : 3 : nlru->nr_items++;
141 : : spin_unlock(&nlru->lock);
142 : 3 : return true;
143 : : }
144 : : spin_unlock(&nlru->lock);
145 : 3 : return false;
146 : : }
147 : : EXPORT_SYMBOL_GPL(list_lru_add);
148 : :
149 : 3 : bool list_lru_del(struct list_lru *lru, struct list_head *item)
150 : : {
151 : : int nid = page_to_nid(virt_to_page(item));
152 : 3 : struct list_lru_node *nlru = &lru->node[nid];
153 : : struct list_lru_one *l;
154 : :
155 : : spin_lock(&nlru->lock);
156 : 3 : if (!list_empty(item)) {
157 : 3 : l = list_lru_from_kmem(nlru, item, NULL);
158 : : list_del_init(item);
159 : 3 : l->nr_items--;
160 : 3 : nlru->nr_items--;
161 : : spin_unlock(&nlru->lock);
162 : 3 : return true;
163 : : }
164 : : spin_unlock(&nlru->lock);
165 : 0 : return false;
166 : : }
167 : : EXPORT_SYMBOL_GPL(list_lru_del);
168 : :
169 : 0 : void list_lru_isolate(struct list_lru_one *list, struct list_head *item)
170 : : {
171 : : list_del_init(item);
172 : 0 : list->nr_items--;
173 : 0 : }
174 : : EXPORT_SYMBOL_GPL(list_lru_isolate);
175 : :
176 : 3 : void list_lru_isolate_move(struct list_lru_one *list, struct list_head *item,
177 : : struct list_head *head)
178 : : {
179 : : list_move(item, head);
180 : 3 : list->nr_items--;
181 : 3 : }
182 : : EXPORT_SYMBOL_GPL(list_lru_isolate_move);
183 : :
184 : 0 : unsigned long list_lru_count_one(struct list_lru *lru,
185 : : int nid, struct mem_cgroup *memcg)
186 : : {
187 : 0 : struct list_lru_node *nlru = &lru->node[nid];
188 : : struct list_lru_one *l;
189 : : unsigned long count;
190 : :
191 : : rcu_read_lock();
192 : : l = list_lru_from_memcg_idx(nlru, memcg_cache_id(memcg));
193 : 0 : count = l->nr_items;
194 : : rcu_read_unlock();
195 : :
196 : 0 : return count;
197 : : }
198 : : EXPORT_SYMBOL_GPL(list_lru_count_one);
199 : :
200 : 3 : unsigned long list_lru_count_node(struct list_lru *lru, int nid)
201 : : {
202 : : struct list_lru_node *nlru;
203 : :
204 : 3 : nlru = &lru->node[nid];
205 : 3 : return nlru->nr_items;
206 : : }
207 : : EXPORT_SYMBOL_GPL(list_lru_count_node);
208 : :
209 : : static unsigned long
210 : 3 : __list_lru_walk_one(struct list_lru_node *nlru, int memcg_idx,
211 : : list_lru_walk_cb isolate, void *cb_arg,
212 : : unsigned long *nr_to_walk)
213 : : {
214 : :
215 : : struct list_lru_one *l;
216 : : struct list_head *item, *n;
217 : : unsigned long isolated = 0;
218 : :
219 : : l = list_lru_from_memcg_idx(nlru, memcg_idx);
220 : : restart:
221 : 3 : list_for_each_safe(item, n, &l->list) {
222 : : enum lru_status ret;
223 : :
224 : : /*
225 : : * decrement nr_to_walk first so that we don't livelock if we
226 : : * get stuck on large numbesr of LRU_RETRY items
227 : : */
228 : 3 : if (!*nr_to_walk)
229 : : break;
230 : 3 : --*nr_to_walk;
231 : :
232 : 3 : ret = isolate(item, l, &nlru->lock, cb_arg);
233 : 3 : switch (ret) {
234 : : case LRU_REMOVED_RETRY:
235 : 0 : assert_spin_locked(&nlru->lock);
236 : : /* fall through */
237 : : case LRU_REMOVED:
238 : 3 : isolated++;
239 : 3 : nlru->nr_items--;
240 : : /*
241 : : * If the lru lock has been dropped, our list
242 : : * traversal is now invalid and so we have to
243 : : * restart from scratch.
244 : : */
245 : 3 : if (ret == LRU_REMOVED_RETRY)
246 : : goto restart;
247 : : break;
248 : : case LRU_ROTATE:
249 : : list_move_tail(item, &l->list);
250 : : break;
251 : : case LRU_SKIP:
252 : : break;
253 : : case LRU_RETRY:
254 : : /*
255 : : * The lru lock has been dropped, our list traversal is
256 : : * now invalid and so we have to restart from scratch.
257 : : */
258 : 0 : assert_spin_locked(&nlru->lock);
259 : : goto restart;
260 : : default:
261 : 0 : BUG();
262 : : }
263 : : }
264 : 3 : return isolated;
265 : : }
266 : :
267 : : unsigned long
268 : 3 : list_lru_walk_one(struct list_lru *lru, int nid, struct mem_cgroup *memcg,
269 : : list_lru_walk_cb isolate, void *cb_arg,
270 : : unsigned long *nr_to_walk)
271 : : {
272 : 3 : struct list_lru_node *nlru = &lru->node[nid];
273 : : unsigned long ret;
274 : :
275 : : spin_lock(&nlru->lock);
276 : 3 : ret = __list_lru_walk_one(nlru, memcg_cache_id(memcg), isolate, cb_arg,
277 : : nr_to_walk);
278 : : spin_unlock(&nlru->lock);
279 : 3 : return ret;
280 : : }
281 : : EXPORT_SYMBOL_GPL(list_lru_walk_one);
282 : :
283 : : unsigned long
284 : 0 : list_lru_walk_one_irq(struct list_lru *lru, int nid, struct mem_cgroup *memcg,
285 : : list_lru_walk_cb isolate, void *cb_arg,
286 : : unsigned long *nr_to_walk)
287 : : {
288 : 0 : struct list_lru_node *nlru = &lru->node[nid];
289 : : unsigned long ret;
290 : :
291 : : spin_lock_irq(&nlru->lock);
292 : 0 : ret = __list_lru_walk_one(nlru, memcg_cache_id(memcg), isolate, cb_arg,
293 : : nr_to_walk);
294 : : spin_unlock_irq(&nlru->lock);
295 : 0 : return ret;
296 : : }
297 : :
298 : 3 : unsigned long list_lru_walk_node(struct list_lru *lru, int nid,
299 : : list_lru_walk_cb isolate, void *cb_arg,
300 : : unsigned long *nr_to_walk)
301 : : {
302 : : long isolated = 0;
303 : : int memcg_idx;
304 : :
305 : 3 : isolated += list_lru_walk_one(lru, nid, NULL, isolate, cb_arg,
306 : : nr_to_walk);
307 : 3 : if (*nr_to_walk > 0 && list_lru_memcg_aware(lru)) {
308 : 0 : for_each_memcg_cache_index(memcg_idx) {
309 : 0 : struct list_lru_node *nlru = &lru->node[nid];
310 : :
311 : : spin_lock(&nlru->lock);
312 : 0 : isolated += __list_lru_walk_one(nlru, memcg_idx,
313 : : isolate, cb_arg,
314 : : nr_to_walk);
315 : : spin_unlock(&nlru->lock);
316 : :
317 : 0 : if (*nr_to_walk <= 0)
318 : : break;
319 : : }
320 : : }
321 : 3 : return isolated;
322 : : }
323 : : EXPORT_SYMBOL_GPL(list_lru_walk_node);
324 : :
325 : : static void init_one_lru(struct list_lru_one *l)
326 : : {
327 : 3 : INIT_LIST_HEAD(&l->list);
328 : 3 : l->nr_items = 0;
329 : : }
330 : :
331 : : #ifdef CONFIG_MEMCG_KMEM
332 : : static void __memcg_destroy_list_lru_node(struct list_lru_memcg *memcg_lrus,
333 : : int begin, int end)
334 : : {
335 : : int i;
336 : :
337 : 0 : for (i = begin; i < end; i++)
338 : 0 : kfree(memcg_lrus->lru[i]);
339 : : }
340 : :
341 : 3 : static int __memcg_init_list_lru_node(struct list_lru_memcg *memcg_lrus,
342 : : int begin, int end)
343 : : {
344 : : int i;
345 : :
346 : 3 : for (i = begin; i < end; i++) {
347 : : struct list_lru_one *l;
348 : :
349 : : l = kmalloc(sizeof(struct list_lru_one), GFP_KERNEL);
350 : 0 : if (!l)
351 : : goto fail;
352 : :
353 : : init_one_lru(l);
354 : 0 : memcg_lrus->lru[i] = l;
355 : : }
356 : : return 0;
357 : : fail:
358 : : __memcg_destroy_list_lru_node(memcg_lrus, begin, i);
359 : : return -ENOMEM;
360 : : }
361 : :
362 : 3 : static int memcg_init_list_lru_node(struct list_lru_node *nlru)
363 : : {
364 : : struct list_lru_memcg *memcg_lrus;
365 : 3 : int size = memcg_nr_cache_ids;
366 : :
367 : 3 : memcg_lrus = kvmalloc(sizeof(*memcg_lrus) +
368 : : size * sizeof(void *), GFP_KERNEL);
369 : 3 : if (!memcg_lrus)
370 : : return -ENOMEM;
371 : :
372 : 3 : if (__memcg_init_list_lru_node(memcg_lrus, 0, size)) {
373 : 0 : kvfree(memcg_lrus);
374 : 0 : return -ENOMEM;
375 : : }
376 : 3 : RCU_INIT_POINTER(nlru->memcg_lrus, memcg_lrus);
377 : :
378 : 3 : return 0;
379 : : }
380 : :
381 : 3 : static void memcg_destroy_list_lru_node(struct list_lru_node *nlru)
382 : : {
383 : : struct list_lru_memcg *memcg_lrus;
384 : : /*
385 : : * This is called when shrinker has already been unregistered,
386 : : * and nobody can use it. So, there is no need to use kvfree_rcu().
387 : : */
388 : 3 : memcg_lrus = rcu_dereference_protected(nlru->memcg_lrus, true);
389 : 3 : __memcg_destroy_list_lru_node(memcg_lrus, 0, memcg_nr_cache_ids);
390 : 3 : kvfree(memcg_lrus);
391 : 3 : }
392 : :
393 : 0 : static void kvfree_rcu(struct rcu_head *head)
394 : : {
395 : : struct list_lru_memcg *mlru;
396 : :
397 : : mlru = container_of(head, struct list_lru_memcg, rcu);
398 : 0 : kvfree(mlru);
399 : 0 : }
400 : :
401 : 0 : static int memcg_update_list_lru_node(struct list_lru_node *nlru,
402 : : int old_size, int new_size)
403 : : {
404 : : struct list_lru_memcg *old, *new;
405 : :
406 : 0 : BUG_ON(old_size > new_size);
407 : :
408 : 0 : old = rcu_dereference_protected(nlru->memcg_lrus,
409 : : lockdep_is_held(&list_lrus_mutex));
410 : 0 : new = kvmalloc(sizeof(*new) + new_size * sizeof(void *), GFP_KERNEL);
411 : 0 : if (!new)
412 : : return -ENOMEM;
413 : :
414 : 0 : if (__memcg_init_list_lru_node(new, old_size, new_size)) {
415 : 0 : kvfree(new);
416 : 0 : return -ENOMEM;
417 : : }
418 : :
419 : 0 : memcpy(&new->lru, &old->lru, old_size * sizeof(void *));
420 : :
421 : : /*
422 : : * The locking below allows readers that hold nlru->lock avoid taking
423 : : * rcu_read_lock (see list_lru_from_memcg_idx).
424 : : *
425 : : * Since list_lru_{add,del} may be called under an IRQ-safe lock,
426 : : * we have to use IRQ-safe primitives here to avoid deadlock.
427 : : */
428 : : spin_lock_irq(&nlru->lock);
429 : 0 : rcu_assign_pointer(nlru->memcg_lrus, new);
430 : : spin_unlock_irq(&nlru->lock);
431 : :
432 : 0 : call_rcu(&old->rcu, kvfree_rcu);
433 : 0 : return 0;
434 : : }
435 : :
436 : : static void memcg_cancel_update_list_lru_node(struct list_lru_node *nlru,
437 : : int old_size, int new_size)
438 : : {
439 : : struct list_lru_memcg *memcg_lrus;
440 : :
441 : 0 : memcg_lrus = rcu_dereference_protected(nlru->memcg_lrus,
442 : : lockdep_is_held(&list_lrus_mutex));
443 : : /* do not bother shrinking the array back to the old size, because we
444 : : * cannot handle allocation failures here */
445 : : __memcg_destroy_list_lru_node(memcg_lrus, old_size, new_size);
446 : : }
447 : :
448 : 3 : static int memcg_init_list_lru(struct list_lru *lru, bool memcg_aware)
449 : : {
450 : : int i;
451 : :
452 : 3 : lru->memcg_aware = memcg_aware;
453 : :
454 : 3 : if (!memcg_aware)
455 : : return 0;
456 : :
457 : 3 : for_each_node(i) {
458 : 3 : if (memcg_init_list_lru_node(&lru->node[i]))
459 : : goto fail;
460 : : }
461 : : return 0;
462 : : fail:
463 : 0 : for (i = i - 1; i >= 0; i--) {
464 : 0 : if (!lru->node[i].memcg_lrus)
465 : 0 : continue;
466 : 0 : memcg_destroy_list_lru_node(&lru->node[i]);
467 : : }
468 : : return -ENOMEM;
469 : : }
470 : :
471 : 3 : static void memcg_destroy_list_lru(struct list_lru *lru)
472 : : {
473 : : int i;
474 : :
475 : 3 : if (!list_lru_memcg_aware(lru))
476 : 3 : return;
477 : :
478 : 3 : for_each_node(i)
479 : 3 : memcg_destroy_list_lru_node(&lru->node[i]);
480 : : }
481 : :
482 : 0 : static int memcg_update_list_lru(struct list_lru *lru,
483 : : int old_size, int new_size)
484 : : {
485 : : int i;
486 : :
487 : 0 : if (!list_lru_memcg_aware(lru))
488 : : return 0;
489 : :
490 : 0 : for_each_node(i) {
491 : 0 : if (memcg_update_list_lru_node(&lru->node[i],
492 : : old_size, new_size))
493 : : goto fail;
494 : : }
495 : : return 0;
496 : : fail:
497 : 0 : for (i = i - 1; i >= 0; i--) {
498 : 0 : if (!lru->node[i].memcg_lrus)
499 : 0 : continue;
500 : :
501 : : memcg_cancel_update_list_lru_node(&lru->node[i],
502 : : old_size, new_size);
503 : : }
504 : : return -ENOMEM;
505 : : }
506 : :
507 : 0 : static void memcg_cancel_update_list_lru(struct list_lru *lru,
508 : : int old_size, int new_size)
509 : : {
510 : : int i;
511 : :
512 : 0 : if (!list_lru_memcg_aware(lru))
513 : 0 : return;
514 : :
515 : 0 : for_each_node(i)
516 : 0 : memcg_cancel_update_list_lru_node(&lru->node[i],
517 : : old_size, new_size);
518 : : }
519 : :
520 : 0 : int memcg_update_all_list_lrus(int new_size)
521 : : {
522 : : int ret = 0;
523 : : struct list_lru *lru;
524 : 0 : int old_size = memcg_nr_cache_ids;
525 : :
526 : 0 : mutex_lock(&list_lrus_mutex);
527 : 0 : list_for_each_entry(lru, &list_lrus, list) {
528 : 0 : ret = memcg_update_list_lru(lru, old_size, new_size);
529 : 0 : if (ret)
530 : : goto fail;
531 : : }
532 : : out:
533 : 0 : mutex_unlock(&list_lrus_mutex);
534 : 0 : return ret;
535 : : fail:
536 : 0 : list_for_each_entry_continue_reverse(lru, &list_lrus, list)
537 : 0 : memcg_cancel_update_list_lru(lru, old_size, new_size);
538 : : goto out;
539 : : }
540 : :
541 : 0 : static void memcg_drain_list_lru_node(struct list_lru *lru, int nid,
542 : : int src_idx, struct mem_cgroup *dst_memcg)
543 : : {
544 : 0 : struct list_lru_node *nlru = &lru->node[nid];
545 : 0 : int dst_idx = dst_memcg->kmemcg_id;
546 : : struct list_lru_one *src, *dst;
547 : : bool set;
548 : :
549 : : /*
550 : : * Since list_lru_{add,del} may be called under an IRQ-safe lock,
551 : : * we have to use IRQ-safe primitives here to avoid deadlock.
552 : : */
553 : : spin_lock_irq(&nlru->lock);
554 : :
555 : : src = list_lru_from_memcg_idx(nlru, src_idx);
556 : : dst = list_lru_from_memcg_idx(nlru, dst_idx);
557 : :
558 : 0 : list_splice_init(&src->list, &dst->list);
559 : 0 : set = (!dst->nr_items && src->nr_items);
560 : 0 : dst->nr_items += src->nr_items;
561 : 0 : if (set)
562 : 0 : memcg_set_shrinker_bit(dst_memcg, nid, lru_shrinker_id(lru));
563 : 0 : src->nr_items = 0;
564 : :
565 : : spin_unlock_irq(&nlru->lock);
566 : 0 : }
567 : :
568 : 0 : static void memcg_drain_list_lru(struct list_lru *lru,
569 : : int src_idx, struct mem_cgroup *dst_memcg)
570 : : {
571 : : int i;
572 : :
573 : 0 : if (!list_lru_memcg_aware(lru))
574 : 0 : return;
575 : :
576 : 0 : for_each_node(i)
577 : 0 : memcg_drain_list_lru_node(lru, i, src_idx, dst_memcg);
578 : : }
579 : :
580 : 0 : void memcg_drain_all_list_lrus(int src_idx, struct mem_cgroup *dst_memcg)
581 : : {
582 : : struct list_lru *lru;
583 : :
584 : 0 : mutex_lock(&list_lrus_mutex);
585 : 0 : list_for_each_entry(lru, &list_lrus, list)
586 : 0 : memcg_drain_list_lru(lru, src_idx, dst_memcg);
587 : 0 : mutex_unlock(&list_lrus_mutex);
588 : 0 : }
589 : : #else
590 : : static int memcg_init_list_lru(struct list_lru *lru, bool memcg_aware)
591 : : {
592 : : return 0;
593 : : }
594 : :
595 : : static void memcg_destroy_list_lru(struct list_lru *lru)
596 : : {
597 : : }
598 : : #endif /* CONFIG_MEMCG_KMEM */
599 : :
600 : 3 : int __list_lru_init(struct list_lru *lru, bool memcg_aware,
601 : : struct lock_class_key *key, struct shrinker *shrinker)
602 : : {
603 : : int i;
604 : : int err = -ENOMEM;
605 : :
606 : : #ifdef CONFIG_MEMCG_KMEM
607 : 3 : if (shrinker)
608 : 3 : lru->shrinker_id = shrinker->id;
609 : : else
610 : 0 : lru->shrinker_id = -1;
611 : : #endif
612 : 3 : memcg_get_cache_ids();
613 : :
614 : 3 : lru->node = kcalloc(nr_node_ids, sizeof(*lru->node), GFP_KERNEL);
615 : 3 : if (!lru->node)
616 : : goto out;
617 : :
618 : 3 : for_each_node(i) {
619 : 3 : spin_lock_init(&lru->node[i].lock);
620 : : if (key)
621 : : lockdep_set_class(&lru->node[i].lock, key);
622 : 3 : init_one_lru(&lru->node[i].lru);
623 : : }
624 : :
625 : 3 : err = memcg_init_list_lru(lru, memcg_aware);
626 : 3 : if (err) {
627 : 0 : kfree(lru->node);
628 : : /* Do this so a list_lru_destroy() doesn't crash: */
629 : 0 : lru->node = NULL;
630 : 0 : goto out;
631 : : }
632 : :
633 : 3 : list_lru_register(lru);
634 : : out:
635 : 3 : memcg_put_cache_ids();
636 : 3 : return err;
637 : : }
638 : : EXPORT_SYMBOL_GPL(__list_lru_init);
639 : :
640 : 3 : void list_lru_destroy(struct list_lru *lru)
641 : : {
642 : : /* Already destroyed or not yet initialized? */
643 : 3 : if (!lru->node)
644 : 3 : return;
645 : :
646 : 3 : memcg_get_cache_ids();
647 : :
648 : 3 : list_lru_unregister(lru);
649 : :
650 : 3 : memcg_destroy_list_lru(lru);
651 : 3 : kfree(lru->node);
652 : 3 : lru->node = NULL;
653 : :
654 : : #ifdef CONFIG_MEMCG_KMEM
655 : 3 : lru->shrinker_id = -1;
656 : : #endif
657 : 3 : memcg_put_cache_ids();
658 : : }
659 : : EXPORT_SYMBOL_GPL(list_lru_destroy);
|