LCOV - code coverage report
Current view: top level - kernel/sched - stop_task.c (source / functions) Hit Total Coverage
Test: combined.info Lines: 27 43 62.8 %
Date: 2022-03-28 15:32:58 Functions: 6 14 42.9 %
Branches: 10 16 62.5 %

           Branch data     Line data    Source code
       1                 :            : // SPDX-License-Identifier: GPL-2.0
       2                 :            : /*
       3                 :            :  * stop-task scheduling class.
       4                 :            :  *
       5                 :            :  * The stop task is the highest priority task in the system, it preempts
       6                 :            :  * everything and will be preempted by nothing.
       7                 :            :  *
       8                 :            :  * See kernel/stop_machine.c
       9                 :            :  */
      10                 :            : #include "sched.h"
      11                 :            : 
      12                 :            : #ifdef CONFIG_SMP
      13                 :            : static int
      14                 :          0 : select_task_rq_stop(struct task_struct *p, int cpu, int sd_flag, int flags)
      15                 :            : {
      16                 :          0 :         return task_cpu(p); /* stop tasks as never migrate */
      17                 :            : }
      18                 :            : 
      19                 :            : static int
      20                 :         84 : balance_stop(struct rq *rq, struct task_struct *prev, struct rq_flags *rf)
      21                 :            : {
      22         [ +  - ]:         84 :         return sched_stop_runnable(rq);
      23                 :            : }
      24                 :            : #endif /* CONFIG_SMP */
      25                 :            : 
      26                 :            : static void
      27                 :          0 : check_preempt_curr_stop(struct rq *rq, struct task_struct *p, int flags)
      28                 :            : {
      29                 :            :         /* we're never preempted */
      30                 :          0 : }
      31                 :            : 
      32                 :         84 : static void set_next_task_stop(struct rq *rq, struct task_struct *stop, bool first)
      33                 :            : {
      34                 :         84 :         stop->se.exec_start = rq_clock_task(rq);
      35                 :          0 : }
      36                 :            : 
      37                 :        168 : static struct task_struct *pick_next_task_stop(struct rq *rq)
      38                 :            : {
      39   [ +  -  +  + ]:        336 :         if (!sched_stop_runnable(rq))
      40                 :            :                 return NULL;
      41                 :            : 
      42                 :         84 :         set_next_task_stop(rq, rq->stop, true);
      43                 :         84 :         return rq->stop;
      44                 :            : }
      45                 :            : 
      46                 :            : static void
      47                 :         84 : enqueue_task_stop(struct rq *rq, struct task_struct *p, int flags)
      48                 :            : {
      49         [ +  + ]:         84 :         add_nr_running(rq, 1);
      50                 :         84 : }
      51                 :            : 
      52                 :            : static void
      53                 :         84 : dequeue_task_stop(struct rq *rq, struct task_struct *p, int flags)
      54                 :            : {
      55                 :         84 :         sub_nr_running(rq, 1);
      56                 :         84 : }
      57                 :            : 
      58                 :          0 : static void yield_task_stop(struct rq *rq)
      59                 :            : {
      60                 :          0 :         BUG(); /* the stop task should never yield, its pointless. */
      61                 :            : }
      62                 :            : 
      63                 :         84 : static void put_prev_task_stop(struct rq *rq, struct task_struct *prev)
      64                 :            : {
      65                 :         84 :         struct task_struct *curr = rq->curr;
      66                 :         84 :         u64 delta_exec;
      67                 :            : 
      68         [ -  + ]:         84 :         delta_exec = rq_clock_task(rq) - curr->se.exec_start;
      69         [ -  + ]:         84 :         if (unlikely((s64)delta_exec < 0))
      70                 :          0 :                 delta_exec = 0;
      71                 :            : 
      72   [ +  -  -  + ]:        168 :         schedstat_set(curr->se.statistics.exec_max,
      73                 :            :                         max(curr->se.statistics.exec_max, delta_exec));
      74                 :            : 
      75                 :         84 :         curr->se.sum_exec_runtime += delta_exec;
      76                 :         84 :         account_group_exec_runtime(curr, delta_exec);
      77                 :            : 
      78                 :         84 :         curr->se.exec_start = rq_clock_task(rq);
      79                 :         84 :         cgroup_account_cputime(curr, delta_exec);
      80                 :         84 : }
      81                 :            : 
      82                 :            : /*
      83                 :            :  * scheduler tick hitting a task of our scheduling class.
      84                 :            :  *
      85                 :            :  * NOTE: This function can be called remotely by the tick offload that
      86                 :            :  * goes along full dynticks. Therefore no local assumption can be made
      87                 :            :  * and everything must be accessed through the @rq and @curr passed in
      88                 :            :  * parameters.
      89                 :            :  */
      90                 :          3 : static void task_tick_stop(struct rq *rq, struct task_struct *curr, int queued)
      91                 :            : {
      92                 :          3 : }
      93                 :            : 
      94                 :          0 : static void switched_to_stop(struct rq *rq, struct task_struct *p)
      95                 :            : {
      96                 :          0 :         BUG(); /* its impossible to change to this class */
      97                 :            : }
      98                 :            : 
      99                 :            : static void
     100                 :          0 : prio_changed_stop(struct rq *rq, struct task_struct *p, int oldprio)
     101                 :            : {
     102                 :          0 :         BUG(); /* how!?, what priority? */
     103                 :            : }
     104                 :            : 
     105                 :            : static unsigned int
     106                 :          0 : get_rr_interval_stop(struct rq *rq, struct task_struct *task)
     107                 :            : {
     108                 :          0 :         return 0;
     109                 :            : }
     110                 :            : 
     111                 :          0 : static void update_curr_stop(struct rq *rq)
     112                 :            : {
     113                 :          0 : }
     114                 :            : 
     115                 :            : /*
     116                 :            :  * Simple, special scheduling class for the per-CPU stop tasks:
     117                 :            :  */
     118                 :            : const struct sched_class stop_sched_class = {
     119                 :            :         .next                   = &dl_sched_class,
     120                 :            : 
     121                 :            :         .enqueue_task           = enqueue_task_stop,
     122                 :            :         .dequeue_task           = dequeue_task_stop,
     123                 :            :         .yield_task             = yield_task_stop,
     124                 :            : 
     125                 :            :         .check_preempt_curr     = check_preempt_curr_stop,
     126                 :            : 
     127                 :            :         .pick_next_task         = pick_next_task_stop,
     128                 :            :         .put_prev_task          = put_prev_task_stop,
     129                 :            :         .set_next_task          = set_next_task_stop,
     130                 :            : 
     131                 :            : #ifdef CONFIG_SMP
     132                 :            :         .balance                = balance_stop,
     133                 :            :         .select_task_rq         = select_task_rq_stop,
     134                 :            :         .set_cpus_allowed       = set_cpus_allowed_common,
     135                 :            : #endif
     136                 :            : 
     137                 :            :         .task_tick              = task_tick_stop,
     138                 :            : 
     139                 :            :         .get_rr_interval        = get_rr_interval_stop,
     140                 :            : 
     141                 :            :         .prio_changed           = prio_changed_stop,
     142                 :            :         .switched_to            = switched_to_stop,
     143                 :            :         .update_curr            = update_curr_stop,
     144                 :            : };

Generated by: LCOV version 1.14