LCOV - code coverage report
Current view: top level - kernel/cgroup - rstat.c (source / functions) Hit Total Coverage
Test: combined.info Lines: 141 174 81.0 %
Date: 2022-04-01 14:35:51 Functions: 10 14 71.4 %
Branches: 49 76 64.5 %

           Branch data     Line data    Source code
       1                 :            : // SPDX-License-Identifier: GPL-2.0-only
       2                 :            : #include "cgroup-internal.h"
       3                 :            : 
       4                 :            : #include <linux/sched/cputime.h>
       5                 :            : 
       6                 :            : static DEFINE_SPINLOCK(cgroup_rstat_lock);
       7                 :            : static DEFINE_PER_CPU(raw_spinlock_t, cgroup_rstat_cpu_lock);
       8                 :            : 
       9                 :            : static void cgroup_base_stat_flush(struct cgroup *cgrp, int cpu);
      10                 :            : 
      11                 :     248721 : static struct cgroup_rstat_cpu *cgroup_rstat_cpu(struct cgroup *cgrp, int cpu)
      12                 :            : {
      13                 :     248721 :         return per_cpu_ptr(cgrp->rstat_cpu, cpu);
      14                 :            : }
      15                 :            : 
      16                 :            : /**
      17                 :            :  * cgroup_rstat_updated - keep track of updated rstat_cpu
      18                 :            :  * @cgrp: target cgroup
      19                 :            :  * @cpu: cpu on which rstat_cpu was updated
      20                 :            :  *
      21                 :            :  * @cgrp's rstat_cpu on @cpu was updated.  Put it on the parent's matching
      22                 :            :  * rstat_cpu->updated_children list.  See the comment on top of
      23                 :            :  * cgroup_rstat_cpu definition for details.
      24                 :            :  */
      25                 :     244700 : void cgroup_rstat_updated(struct cgroup *cgrp, int cpu)
      26                 :            : {
      27                 :     244700 :         raw_spinlock_t *cpu_lock = per_cpu_ptr(&cgroup_rstat_cpu_lock, cpu);
      28                 :     244700 :         struct cgroup *parent;
      29                 :     244700 :         unsigned long flags;
      30                 :            : 
      31                 :            :         /* nothing to do for root */
      32         [ +  - ]:     244700 :         if (!cgroup_parent(cgrp))
      33                 :            :                 return;
      34                 :            : 
      35                 :            :         /*
      36                 :            :          * Paired with the one in cgroup_rstat_cpu_pop_updated().  Either we
      37                 :            :          * see NULL updated_next or they see our updated stat.
      38                 :            :          */
      39                 :     244700 :         smp_mb();
      40                 :            : 
      41                 :            :         /*
      42                 :            :          * Because @parent's updated_children is terminated with @parent
      43                 :            :          * instead of NULL, we can tell whether @cgrp is on the list by
      44                 :            :          * testing the next pointer for NULL.
      45                 :            :          */
      46         [ +  + ]:     244700 :         if (cgroup_rstat_cpu(cgrp, cpu)->updated_next)
      47                 :            :                 return;
      48                 :            : 
      49                 :        567 :         raw_spin_lock_irqsave(cpu_lock, flags);
      50                 :            : 
      51                 :            :         /* put @cgrp and all ancestors on the corresponding updated lists */
      52   [ +  -  +  + ]:       1722 :         for (parent = cgroup_parent(cgrp); parent;
      53                 :        588 :              cgrp = parent, parent = cgroup_parent(cgrp)) {
      54                 :       1113 :                 struct cgroup_rstat_cpu *rstatc = cgroup_rstat_cpu(cgrp, cpu);
      55                 :       1113 :                 struct cgroup_rstat_cpu *prstatc = cgroup_rstat_cpu(parent, cpu);
      56                 :            : 
      57                 :            :                 /*
      58                 :            :                  * Both additions and removals are bottom-up.  If a cgroup
      59                 :            :                  * is already in the tree, all ancestors are.
      60                 :            :                  */
      61         [ +  + ]:       1113 :                 if (rstatc->updated_next)
      62                 :            :                         break;
      63                 :            : 
      64                 :        588 :                 rstatc->updated_next = prstatc->updated_children;
      65         [ +  + ]:        588 :                 prstatc->updated_children = cgrp;
      66                 :            :         }
      67                 :            : 
      68                 :        567 :         raw_spin_unlock_irqrestore(cpu_lock, flags);
      69                 :            : }
      70                 :            : EXPORT_SYMBOL_GPL(cgroup_rstat_updated);
      71                 :            : 
      72                 :            : /**
      73                 :            :  * cgroup_rstat_cpu_pop_updated - iterate and dismantle rstat_cpu updated tree
      74                 :            :  * @pos: current position
      75                 :            :  * @root: root of the tree to traversal
      76                 :            :  * @cpu: target cpu
      77                 :            :  *
      78                 :            :  * Walks the udpated rstat_cpu tree on @cpu from @root.  %NULL @pos starts
      79                 :            :  * the traversal and %NULL return indicates the end.  During traversal,
      80                 :            :  * each returned cgroup is unlinked from the tree.  Must be called with the
      81                 :            :  * matching cgroup_rstat_cpu_lock held.
      82                 :            :  *
      83                 :            :  * The only ordering guarantee is that, for a parent and a child pair
      84                 :            :  * covered by a given traversal, if a child is visited, its parent is
      85                 :            :  * guaranteed to be visited afterwards.
      86                 :            :  */
      87                 :        882 : static struct cgroup *cgroup_rstat_cpu_pop_updated(struct cgroup *pos,
      88                 :            :                                                    struct cgroup *root, int cpu)
      89                 :            : {
      90                 :        882 :         struct cgroup_rstat_cpu *rstatc;
      91                 :            : 
      92         [ +  + ]:        882 :         if (pos == root)
      93                 :            :                 return NULL;
      94                 :            : 
      95                 :            :         /*
      96                 :            :          * We're gonna walk down to the first leaf and visit/remove it.  We
      97                 :            :          * can pick whatever unvisited node as the starting point.
      98                 :            :          */
      99         [ -  + ]:        588 :         if (!pos)
     100                 :            :                 pos = root;
     101                 :            :         else
     102         [ #  # ]:          0 :                 pos = cgroup_parent(pos);
     103                 :            : 
     104                 :            :         /* walk down to the first leaf */
     105                 :        588 :         while (true) {
     106                 :        588 :                 rstatc = cgroup_rstat_cpu(pos, cpu);
     107         [ -  + ]:        588 :                 if (rstatc->updated_children == pos)
     108                 :            :                         break;
     109                 :            :                 pos = rstatc->updated_children;
     110                 :            :         }
     111                 :            : 
     112                 :            :         /*
     113                 :            :          * Unlink @pos from the tree.  As the updated_children list is
     114                 :            :          * singly linked, we have to walk it to find the removal point.
     115                 :            :          * However, due to the way we traverse, @pos will be the first
     116                 :            :          * child in most cases. The only exception is @root.
     117                 :            :          */
     118         [ +  + ]:        588 :         if (rstatc->updated_next) {
     119         [ +  - ]:        294 :                 struct cgroup *parent = cgroup_parent(pos);
     120                 :        294 :                 struct cgroup_rstat_cpu *prstatc = cgroup_rstat_cpu(parent, cpu);
     121                 :        294 :                 struct cgroup_rstat_cpu *nrstatc;
     122                 :        294 :                 struct cgroup **nextp;
     123                 :            : 
     124                 :        294 :                 nextp = &prstatc->updated_children;
     125                 :       1280 :                 while (true) {
     126                 :       1280 :                         nrstatc = cgroup_rstat_cpu(*nextp, cpu);
     127         [ +  + ]:        787 :                         if (*nextp == pos)
     128                 :            :                                 break;
     129                 :            : 
     130         [ -  + ]:        493 :                         WARN_ON_ONCE(*nextp == parent);
     131                 :        493 :                         nextp = &nrstatc->updated_next;
     132                 :            :                 }
     133                 :            : 
     134                 :        294 :                 *nextp = rstatc->updated_next;
     135                 :        294 :                 rstatc->updated_next = NULL;
     136                 :            : 
     137                 :            :                 /*
     138                 :            :                  * Paired with the one in cgroup_rstat_cpu_updated().
     139                 :            :                  * Either they see NULL updated_next or we see their
     140                 :            :                  * updated stat.
     141                 :            :                  */
     142                 :        294 :                 smp_mb();
     143                 :            : 
     144                 :        294 :                 return pos;
     145                 :            :         }
     146                 :            : 
     147                 :            :         /* only happens for @root */
     148                 :            :         return NULL;
     149                 :            : }
     150                 :            : 
     151                 :            : /* see cgroup_rstat_flush() */
     152                 :        588 : static void cgroup_rstat_flush_locked(struct cgroup *cgrp, bool may_sleep)
     153                 :            :         __releases(&cgroup_rstat_lock) __acquires(&cgroup_rstat_lock)
     154                 :            : {
     155                 :        588 :         int cpu;
     156                 :            : 
     157                 :        588 :         lockdep_assert_held(&cgroup_rstat_lock);
     158                 :            : 
     159         [ +  + ]:       1176 :         for_each_possible_cpu(cpu) {
     160                 :        588 :                 raw_spinlock_t *cpu_lock = per_cpu_ptr(&cgroup_rstat_cpu_lock,
     161                 :            :                                                        cpu);
     162                 :        588 :                 struct cgroup *pos = NULL;
     163                 :            : 
     164                 :        588 :                 raw_spin_lock(cpu_lock);
     165         [ +  + ]:        882 :                 while ((pos = cgroup_rstat_cpu_pop_updated(pos, cgrp, cpu))) {
     166                 :        294 :                         struct cgroup_subsys_state *css;
     167                 :            : 
     168                 :        294 :                         cgroup_base_stat_flush(pos, cpu);
     169                 :            : 
     170                 :        294 :                         rcu_read_lock();
     171         [ -  + ]:        294 :                         list_for_each_entry_rcu(css, &pos->rstat_css_list,
     172                 :            :                                                 rstat_css_node)
     173                 :          0 :                                 css->ss->css_rstat_flush(css, cpu);
     174                 :        294 :                         rcu_read_unlock();
     175                 :            :                 }
     176                 :        588 :                 raw_spin_unlock(cpu_lock);
     177                 :            : 
     178                 :            :                 /* if @may_sleep, play nice and yield if necessary */
     179   [ +  -  -  + ]:       1176 :                 if (may_sleep && (need_resched() ||
     180                 :            :                                   spin_needbreak(&cgroup_rstat_lock))) {
     181                 :          0 :                         spin_unlock_irq(&cgroup_rstat_lock);
     182         [ #  # ]:          0 :                         if (!cond_resched())
     183                 :          0 :                                 cpu_relax();
     184                 :          0 :                         spin_lock_irq(&cgroup_rstat_lock);
     185                 :            :                 }
     186                 :            :         }
     187                 :        588 : }
     188                 :            : 
     189                 :            : /**
     190                 :            :  * cgroup_rstat_flush - flush stats in @cgrp's subtree
     191                 :            :  * @cgrp: target cgroup
     192                 :            :  *
     193                 :            :  * Collect all per-cpu stats in @cgrp's subtree into the global counters
     194                 :            :  * and propagate them upwards.  After this function returns, all cgroups in
     195                 :            :  * the subtree have up-to-date ->stat.
     196                 :            :  *
     197                 :            :  * This also gets all cgroups in the subtree including @cgrp off the
     198                 :            :  * ->updated_children lists.
     199                 :            :  *
     200                 :            :  * This function may block.
     201                 :            :  */
     202                 :        588 : void cgroup_rstat_flush(struct cgroup *cgrp)
     203                 :            : {
     204                 :        588 :         might_sleep();
     205                 :            : 
     206                 :        588 :         spin_lock_irq(&cgroup_rstat_lock);
     207                 :        588 :         cgroup_rstat_flush_locked(cgrp, true);
     208                 :        588 :         spin_unlock_irq(&cgroup_rstat_lock);
     209                 :        588 : }
     210                 :            : 
     211                 :            : /**
     212                 :            :  * cgroup_rstat_flush_irqsafe - irqsafe version of cgroup_rstat_flush()
     213                 :            :  * @cgrp: target cgroup
     214                 :            :  *
     215                 :            :  * This function can be called from any context.
     216                 :            :  */
     217                 :          0 : void cgroup_rstat_flush_irqsafe(struct cgroup *cgrp)
     218                 :            : {
     219                 :          0 :         unsigned long flags;
     220                 :            : 
     221                 :          0 :         spin_lock_irqsave(&cgroup_rstat_lock, flags);
     222                 :          0 :         cgroup_rstat_flush_locked(cgrp, false);
     223                 :          0 :         spin_unlock_irqrestore(&cgroup_rstat_lock, flags);
     224                 :          0 : }
     225                 :            : 
     226                 :            : /**
     227                 :            :  * cgroup_rstat_flush_begin - flush stats in @cgrp's subtree and hold
     228                 :            :  * @cgrp: target cgroup
     229                 :            :  *
     230                 :            :  * Flush stats in @cgrp's subtree and prevent further flushes.  Must be
     231                 :            :  * paired with cgroup_rstat_flush_release().
     232                 :            :  *
     233                 :            :  * This function may block.
     234                 :            :  */
     235                 :          0 : void cgroup_rstat_flush_hold(struct cgroup *cgrp)
     236                 :            :         __acquires(&cgroup_rstat_lock)
     237                 :            : {
     238                 :          0 :         might_sleep();
     239                 :          0 :         spin_lock_irq(&cgroup_rstat_lock);
     240                 :          0 :         cgroup_rstat_flush_locked(cgrp, true);
     241                 :          0 : }
     242                 :            : 
     243                 :            : /**
     244                 :            :  * cgroup_rstat_flush_release - release cgroup_rstat_flush_hold()
     245                 :            :  */
     246                 :          0 : void cgroup_rstat_flush_release(void)
     247                 :            :         __releases(&cgroup_rstat_lock)
     248                 :            : {
     249                 :          0 :         spin_unlock_irq(&cgroup_rstat_lock);
     250                 :          0 : }
     251                 :            : 
     252                 :        651 : int cgroup_rstat_init(struct cgroup *cgrp)
     253                 :            : {
     254                 :        651 :         int cpu;
     255                 :            : 
     256                 :            :         /* the root cgrp has rstat_cpu preallocated */
     257         [ +  + ]:        651 :         if (!cgrp->rstat_cpu) {
     258                 :        630 :                 cgrp->rstat_cpu = alloc_percpu(struct cgroup_rstat_cpu);
     259         [ +  - ]:        630 :                 if (!cgrp->rstat_cpu)
     260                 :            :                         return -ENOMEM;
     261                 :            :         }
     262                 :            : 
     263                 :            :         /* ->updated_children list is self terminated */
     264         [ +  + ]:       1302 :         for_each_possible_cpu(cpu) {
     265                 :        651 :                 struct cgroup_rstat_cpu *rstatc = cgroup_rstat_cpu(cgrp, cpu);
     266                 :            : 
     267                 :        651 :                 rstatc->updated_children = cgrp;
     268                 :        651 :                 u64_stats_init(&rstatc->bsync);
     269                 :            :         }
     270                 :            : 
     271                 :            :         return 0;
     272                 :            : }
     273                 :            : 
     274                 :        294 : void cgroup_rstat_exit(struct cgroup *cgrp)
     275                 :            : {
     276                 :        294 :         int cpu;
     277                 :            : 
     278                 :        294 :         cgroup_rstat_flush(cgrp);
     279                 :            : 
     280                 :            :         /* sanity check */
     281         [ +  + ]:        882 :         for_each_possible_cpu(cpu) {
     282                 :        294 :                 struct cgroup_rstat_cpu *rstatc = cgroup_rstat_cpu(cgrp, cpu);
     283                 :            : 
     284   [ -  +  +  - ]:        294 :                 if (WARN_ON_ONCE(rstatc->updated_children != cgrp) ||
     285   [ -  +  +  - ]:        294 :                     WARN_ON_ONCE(rstatc->updated_next))
     286                 :            :                         return;
     287                 :            :         }
     288                 :            : 
     289                 :        294 :         free_percpu(cgrp->rstat_cpu);
     290                 :        294 :         cgrp->rstat_cpu = NULL;
     291                 :            : }
     292                 :            : 
     293                 :         21 : void __init cgroup_rstat_boot(void)
     294                 :            : {
     295                 :         21 :         int cpu;
     296                 :            : 
     297         [ +  + ]:         63 :         for_each_possible_cpu(cpu)
     298                 :         42 :                 raw_spin_lock_init(per_cpu_ptr(&cgroup_rstat_cpu_lock, cpu));
     299                 :            : 
     300         [ -  + ]:         21 :         BUG_ON(cgroup_rstat_init(&cgrp_dfl_root.cgrp));
     301                 :         21 : }
     302                 :            : 
     303                 :            : /*
     304                 :            :  * Functions for cgroup basic resource statistics implemented on top of
     305                 :            :  * rstat.
     306                 :            :  */
     307                 :        588 : static void cgroup_base_stat_add(struct cgroup_base_stat *dst_bstat,
     308                 :            :                                  struct cgroup_base_stat *src_bstat)
     309                 :            : {
     310                 :        588 :         dst_bstat->cputime.utime += src_bstat->cputime.utime;
     311                 :        588 :         dst_bstat->cputime.stime += src_bstat->cputime.stime;
     312                 :        588 :         dst_bstat->cputime.sum_exec_runtime += src_bstat->cputime.sum_exec_runtime;
     313                 :        294 : }
     314                 :            : 
     315                 :        588 : static void cgroup_base_stat_sub(struct cgroup_base_stat *dst_bstat,
     316                 :            :                                  struct cgroup_base_stat *src_bstat)
     317                 :            : {
     318                 :        588 :         dst_bstat->cputime.utime -= src_bstat->cputime.utime;
     319                 :        588 :         dst_bstat->cputime.stime -= src_bstat->cputime.stime;
     320                 :        588 :         dst_bstat->cputime.sum_exec_runtime -= src_bstat->cputime.sum_exec_runtime;
     321                 :            : }
     322                 :            : 
     323                 :        294 : static void cgroup_base_stat_flush(struct cgroup *cgrp, int cpu)
     324                 :            : {
     325         [ +  - ]:        294 :         struct cgroup *parent = cgroup_parent(cgrp);
     326                 :        294 :         struct cgroup_rstat_cpu *rstatc = cgroup_rstat_cpu(cgrp, cpu);
     327                 :        294 :         struct cgroup_base_stat cur, delta;
     328                 :        294 :         unsigned seq;
     329                 :            : 
     330                 :            :         /* fetch the current per-cpu values */
     331                 :        294 :         do {
     332         [ +  - ]:        294 :                 seq = __u64_stats_fetch_begin(&rstatc->bsync);
     333                 :        294 :                 cur.cputime = rstatc->bstat.cputime;
     334         [ +  - ]:        294 :         } while (__u64_stats_fetch_retry(&rstatc->bsync, seq));
     335                 :            : 
     336                 :            :         /* propagate percpu delta to global */
     337                 :        294 :         delta = cur;
     338                 :        294 :         cgroup_base_stat_sub(&delta, &rstatc->last_bstat);
     339                 :        294 :         cgroup_base_stat_add(&cgrp->bstat, &delta);
     340                 :        294 :         cgroup_base_stat_add(&rstatc->last_bstat, &delta);
     341                 :            : 
     342                 :            :         /* propagate global delta to parent */
     343         [ +  - ]:        294 :         if (parent) {
     344                 :        294 :                 delta = cgrp->bstat;
     345                 :        294 :                 cgroup_base_stat_sub(&delta, &cgrp->last_bstat);
     346                 :        294 :                 cgroup_base_stat_add(&parent->bstat, &delta);
     347                 :        294 :                 cgroup_base_stat_add(&cgrp->last_bstat, &delta);
     348                 :            :         }
     349                 :        294 : }
     350                 :            : 
     351                 :            : static struct cgroup_rstat_cpu *
     352                 :     244700 : cgroup_base_stat_cputime_account_begin(struct cgroup *cgrp)
     353                 :            : {
     354                 :     244700 :         struct cgroup_rstat_cpu *rstatc;
     355                 :            : 
     356                 :     244700 :         rstatc = get_cpu_ptr(cgrp->rstat_cpu);
     357      [ +  +  - ]:     244700 :         u64_stats_update_begin(&rstatc->bsync);
     358                 :     244700 :         return rstatc;
     359                 :            : }
     360                 :            : 
     361                 :     244700 : static void cgroup_base_stat_cputime_account_end(struct cgroup *cgrp,
     362                 :            :                                                  struct cgroup_rstat_cpu *rstatc)
     363                 :            : {
     364                 :     244700 :         u64_stats_update_end(&rstatc->bsync);
     365                 :     244700 :         cgroup_rstat_updated(cgrp, smp_processor_id());
     366                 :     244700 :         put_cpu_ptr(rstatc);
     367                 :            : }
     368                 :            : 
     369                 :     213892 : void __cgroup_account_cputime(struct cgroup *cgrp, u64 delta_exec)
     370                 :            : {
     371                 :     213892 :         struct cgroup_rstat_cpu *rstatc;
     372                 :            : 
     373                 :     213892 :         rstatc = cgroup_base_stat_cputime_account_begin(cgrp);
     374                 :     213892 :         rstatc->bstat.cputime.sum_exec_runtime += delta_exec;
     375                 :     213892 :         cgroup_base_stat_cputime_account_end(cgrp, rstatc);
     376                 :     213892 : }
     377                 :            : 
     378                 :      30808 : void __cgroup_account_cputime_field(struct cgroup *cgrp,
     379                 :            :                                     enum cpu_usage_stat index, u64 delta_exec)
     380                 :            : {
     381                 :      30808 :         struct cgroup_rstat_cpu *rstatc;
     382                 :            : 
     383                 :      30808 :         rstatc = cgroup_base_stat_cputime_account_begin(cgrp);
     384                 :            : 
     385      [ +  +  - ]:      30808 :         switch (index) {
     386                 :       5455 :         case CPUTIME_USER:
     387                 :            :         case CPUTIME_NICE:
     388                 :       5455 :                 rstatc->bstat.cputime.utime += delta_exec;
     389                 :       5455 :                 break;
     390                 :      25353 :         case CPUTIME_SYSTEM:
     391                 :            :         case CPUTIME_IRQ:
     392                 :            :         case CPUTIME_SOFTIRQ:
     393                 :      25353 :                 rstatc->bstat.cputime.stime += delta_exec;
     394                 :      25353 :                 break;
     395                 :            :         default:
     396                 :            :                 break;
     397                 :            :         }
     398                 :            : 
     399                 :      30808 :         cgroup_base_stat_cputime_account_end(cgrp, rstatc);
     400                 :      30808 : }
     401                 :            : 
     402                 :          0 : void cgroup_base_stat_cputime_show(struct seq_file *seq)
     403                 :            : {
     404                 :          0 :         struct cgroup *cgrp = seq_css(seq)->cgroup;
     405                 :          0 :         u64 usage, utime, stime;
     406                 :            : 
     407         [ #  # ]:          0 :         if (!cgroup_parent(cgrp))
     408                 :          0 :                 return;
     409                 :            : 
     410                 :          0 :         cgroup_rstat_flush_hold(cgrp);
     411                 :          0 :         usage = cgrp->bstat.cputime.sum_exec_runtime;
     412                 :          0 :         cputime_adjust(&cgrp->bstat.cputime, &cgrp->prev_cputime, &utime, &stime);
     413                 :          0 :         cgroup_rstat_flush_release();
     414                 :            : 
     415                 :          0 :         do_div(usage, NSEC_PER_USEC);
     416                 :          0 :         do_div(utime, NSEC_PER_USEC);
     417                 :          0 :         do_div(stime, NSEC_PER_USEC);
     418                 :            : 
     419                 :          0 :         seq_printf(seq, "usage_usec %llu\n"
     420                 :            :                    "user_usec %llu\n"
     421                 :            :                    "system_usec %llu\n",
     422                 :            :                    usage, utime, stime);
     423                 :            : }

Generated by: LCOV version 1.14