LCOV - code coverage report
Current view: top level - drivers/gpu/drm/i915/gt - intel_timeline.c (source / functions) Hit Total Coverage
Test: combined.info Lines: 0 246 0.0 %
Date: 2022-04-01 13:59:58 Functions: 0 19 0.0 %
Branches: 0 80 0.0 %

           Branch data     Line data    Source code
       1                 :            : /*
       2                 :            :  * SPDX-License-Identifier: MIT
       3                 :            :  *
       4                 :            :  * Copyright © 2016-2018 Intel Corporation
       5                 :            :  */
       6                 :            : 
       7                 :            : #include "i915_drv.h"
       8                 :            : 
       9                 :            : #include "i915_active.h"
      10                 :            : #include "i915_syncmap.h"
      11                 :            : #include "intel_gt.h"
      12                 :            : #include "intel_ring.h"
      13                 :            : #include "intel_timeline.h"
      14                 :            : 
      15                 :            : #define ptr_set_bit(ptr, bit) ((typeof(ptr))((unsigned long)(ptr) | BIT(bit)))
      16                 :            : #define ptr_test_bit(ptr, bit) ((unsigned long)(ptr) & BIT(bit))
      17                 :            : 
      18                 :            : #define CACHELINE_BITS 6
      19                 :            : #define CACHELINE_FREE CACHELINE_BITS
      20                 :            : 
      21                 :            : struct intel_timeline_hwsp {
      22                 :            :         struct intel_gt *gt;
      23                 :            :         struct intel_gt_timelines *gt_timelines;
      24                 :            :         struct list_head free_link;
      25                 :            :         struct i915_vma *vma;
      26                 :            :         u64 free_bitmap;
      27                 :            : };
      28                 :            : 
      29                 :            : static struct i915_vma *__hwsp_alloc(struct intel_gt *gt)
      30                 :            : {
      31                 :            :         struct drm_i915_private *i915 = gt->i915;
      32                 :            :         struct drm_i915_gem_object *obj;
      33                 :            :         struct i915_vma *vma;
      34                 :            : 
      35                 :            :         obj = i915_gem_object_create_internal(i915, PAGE_SIZE);
      36                 :            :         if (IS_ERR(obj))
      37                 :            :                 return ERR_CAST(obj);
      38                 :            : 
      39                 :            :         i915_gem_object_set_cache_coherency(obj, I915_CACHE_LLC);
      40                 :            : 
      41                 :            :         vma = i915_vma_instance(obj, &gt->ggtt->vm, NULL);
      42                 :            :         if (IS_ERR(vma))
      43                 :            :                 i915_gem_object_put(obj);
      44                 :            : 
      45                 :            :         return vma;
      46                 :            : }
      47                 :            : 
      48                 :            : static struct i915_vma *
      49                 :            : hwsp_alloc(struct intel_timeline *timeline, unsigned int *cacheline)
      50                 :            : {
      51                 :            :         struct intel_gt_timelines *gt = &timeline->gt->timelines;
      52                 :            :         struct intel_timeline_hwsp *hwsp;
      53                 :            : 
      54                 :            :         BUILD_BUG_ON(BITS_PER_TYPE(u64) * CACHELINE_BYTES > PAGE_SIZE);
      55                 :            : 
      56                 :            :         spin_lock_irq(&gt->hwsp_lock);
      57                 :            : 
      58                 :            :         /* hwsp_free_list only contains HWSP that have available cachelines */
      59                 :            :         hwsp = list_first_entry_or_null(&gt->hwsp_free_list,
      60                 :            :                                         typeof(*hwsp), free_link);
      61                 :            :         if (!hwsp) {
      62                 :            :                 struct i915_vma *vma;
      63                 :            : 
      64                 :            :                 spin_unlock_irq(&gt->hwsp_lock);
      65                 :            : 
      66                 :            :                 hwsp = kmalloc(sizeof(*hwsp), GFP_KERNEL);
      67                 :            :                 if (!hwsp)
      68                 :            :                         return ERR_PTR(-ENOMEM);
      69                 :            : 
      70                 :            :                 vma = __hwsp_alloc(timeline->gt);
      71                 :            :                 if (IS_ERR(vma)) {
      72                 :            :                         kfree(hwsp);
      73                 :            :                         return vma;
      74                 :            :                 }
      75                 :            : 
      76                 :            :                 vma->private = hwsp;
      77                 :            :                 hwsp->gt = timeline->gt;
      78                 :            :                 hwsp->vma = vma;
      79                 :            :                 hwsp->free_bitmap = ~0ull;
      80                 :            :                 hwsp->gt_timelines = gt;
      81                 :            : 
      82                 :            :                 spin_lock_irq(&gt->hwsp_lock);
      83                 :            :                 list_add(&hwsp->free_link, &gt->hwsp_free_list);
      84                 :            :         }
      85                 :            : 
      86                 :            :         GEM_BUG_ON(!hwsp->free_bitmap);
      87                 :            :         *cacheline = __ffs64(hwsp->free_bitmap);
      88                 :            :         hwsp->free_bitmap &= ~BIT_ULL(*cacheline);
      89                 :            :         if (!hwsp->free_bitmap)
      90                 :            :                 list_del(&hwsp->free_link);
      91                 :            : 
      92                 :            :         spin_unlock_irq(&gt->hwsp_lock);
      93                 :            : 
      94                 :            :         GEM_BUG_ON(hwsp->vma->private != hwsp);
      95                 :            :         return hwsp->vma;
      96                 :            : }
      97                 :            : 
      98                 :          0 : static void __idle_hwsp_free(struct intel_timeline_hwsp *hwsp, int cacheline)
      99                 :            : {
     100                 :          0 :         struct intel_gt_timelines *gt = hwsp->gt_timelines;
     101                 :          0 :         unsigned long flags;
     102                 :            : 
     103                 :          0 :         spin_lock_irqsave(&gt->hwsp_lock, flags);
     104                 :            : 
     105                 :            :         /* As a cacheline becomes available, publish the HWSP on the freelist */
     106         [ #  # ]:          0 :         if (!hwsp->free_bitmap)
     107                 :          0 :                 list_add_tail(&hwsp->free_link, &gt->hwsp_free_list);
     108                 :            : 
     109                 :          0 :         GEM_BUG_ON(cacheline >= BITS_PER_TYPE(hwsp->free_bitmap));
     110                 :          0 :         hwsp->free_bitmap |= BIT_ULL(cacheline);
     111                 :            : 
     112                 :            :         /* And if no one is left using it, give the page back to the system */
     113         [ #  # ]:          0 :         if (hwsp->free_bitmap == ~0ull) {
     114                 :          0 :                 i915_vma_put(hwsp->vma);
     115                 :          0 :                 list_del(&hwsp->free_link);
     116                 :          0 :                 kfree(hwsp);
     117                 :            :         }
     118                 :            : 
     119                 :          0 :         spin_unlock_irqrestore(&gt->hwsp_lock, flags);
     120                 :          0 : }
     121                 :            : 
     122                 :          0 : static void __idle_cacheline_free(struct intel_timeline_cacheline *cl)
     123                 :            : {
     124                 :          0 :         GEM_BUG_ON(!i915_active_is_idle(&cl->active));
     125                 :            : 
     126                 :          0 :         i915_gem_object_unpin_map(cl->hwsp->vma->obj);
     127                 :          0 :         i915_vma_put(cl->hwsp->vma);
     128                 :          0 :         __idle_hwsp_free(cl->hwsp, ptr_unmask_bits(cl->vaddr, CACHELINE_BITS));
     129                 :            : 
     130         [ #  # ]:          0 :         i915_active_fini(&cl->active);
     131         [ #  # ]:          0 :         kfree_rcu(cl, rcu);
     132                 :          0 : }
     133                 :            : 
     134                 :            : __i915_active_call
     135                 :          0 : static void __cacheline_retire(struct i915_active *active)
     136                 :            : {
     137                 :          0 :         struct intel_timeline_cacheline *cl =
     138                 :          0 :                 container_of(active, typeof(*cl), active);
     139                 :            : 
     140                 :          0 :         i915_vma_unpin(cl->hwsp->vma);
     141         [ #  # ]:          0 :         if (ptr_test_bit(cl->vaddr, CACHELINE_FREE))
     142                 :          0 :                 __idle_cacheline_free(cl);
     143                 :          0 : }
     144                 :            : 
     145                 :          0 : static int __cacheline_active(struct i915_active *active)
     146                 :            : {
     147                 :          0 :         struct intel_timeline_cacheline *cl =
     148                 :          0 :                 container_of(active, typeof(*cl), active);
     149                 :            : 
     150                 :          0 :         __i915_vma_pin(cl->hwsp->vma);
     151                 :          0 :         return 0;
     152                 :            : }
     153                 :            : 
     154                 :            : static struct intel_timeline_cacheline *
     155                 :          0 : cacheline_alloc(struct intel_timeline_hwsp *hwsp, unsigned int cacheline)
     156                 :            : {
     157                 :          0 :         struct intel_timeline_cacheline *cl;
     158                 :          0 :         void *vaddr;
     159                 :            : 
     160                 :          0 :         GEM_BUG_ON(cacheline >= BIT(CACHELINE_BITS));
     161                 :            : 
     162                 :          0 :         cl = kmalloc(sizeof(*cl), GFP_KERNEL);
     163         [ #  # ]:          0 :         if (!cl)
     164                 :            :                 return ERR_PTR(-ENOMEM);
     165                 :            : 
     166                 :          0 :         vaddr = i915_gem_object_pin_map(hwsp->vma->obj, I915_MAP_WB);
     167         [ #  # ]:          0 :         if (IS_ERR(vaddr)) {
     168                 :          0 :                 kfree(cl);
     169                 :          0 :                 return ERR_CAST(vaddr);
     170                 :            :         }
     171                 :            : 
     172                 :          0 :         i915_vma_get(hwsp->vma);
     173                 :          0 :         cl->hwsp = hwsp;
     174                 :          0 :         cl->vaddr = page_pack_bits(vaddr, cacheline);
     175                 :            : 
     176                 :          0 :         i915_active_init(&cl->active, __cacheline_active, __cacheline_retire);
     177                 :            : 
     178                 :          0 :         return cl;
     179                 :            : }
     180                 :            : 
     181                 :          0 : static void cacheline_acquire(struct intel_timeline_cacheline *cl)
     182                 :            : {
     183                 :          0 :         if (cl)
     184                 :          0 :                 i915_active_acquire(&cl->active);
     185                 :            : }
     186                 :            : 
     187                 :          0 : static void cacheline_release(struct intel_timeline_cacheline *cl)
     188                 :            : {
     189                 :          0 :         if (cl)
     190                 :          0 :                 i915_active_release(&cl->active);
     191                 :            : }
     192                 :            : 
     193                 :          0 : static void cacheline_free(struct intel_timeline_cacheline *cl)
     194                 :            : {
     195         [ #  # ]:          0 :         if (!i915_active_acquire_if_busy(&cl->active)) {
     196                 :          0 :                 __idle_cacheline_free(cl);
     197                 :          0 :                 return;
     198                 :            :         }
     199                 :            : 
     200                 :          0 :         GEM_BUG_ON(ptr_test_bit(cl->vaddr, CACHELINE_FREE));
     201                 :          0 :         cl->vaddr = ptr_set_bit(cl->vaddr, CACHELINE_FREE);
     202                 :            : 
     203                 :          0 :         i915_active_release(&cl->active);
     204                 :            : }
     205                 :            : 
     206                 :          0 : int intel_timeline_init(struct intel_timeline *timeline,
     207                 :            :                         struct intel_gt *gt,
     208                 :            :                         struct i915_vma *hwsp)
     209                 :            : {
     210                 :          0 :         void *vaddr;
     211                 :            : 
     212                 :          0 :         kref_init(&timeline->kref);
     213                 :          0 :         atomic_set(&timeline->pin_count, 0);
     214                 :            : 
     215                 :          0 :         timeline->gt = gt;
     216                 :            : 
     217                 :          0 :         timeline->has_initial_breadcrumb = !hwsp;
     218                 :          0 :         timeline->hwsp_cacheline = NULL;
     219                 :            : 
     220         [ #  # ]:          0 :         if (!hwsp) {
     221                 :          0 :                 struct intel_timeline_cacheline *cl;
     222                 :          0 :                 unsigned int cacheline;
     223                 :            : 
     224                 :          0 :                 hwsp = hwsp_alloc(timeline, &cacheline);
     225         [ #  # ]:          0 :                 if (IS_ERR(hwsp))
     226                 :          0 :                         return PTR_ERR(hwsp);
     227                 :            : 
     228                 :          0 :                 cl = cacheline_alloc(hwsp->private, cacheline);
     229         [ #  # ]:          0 :                 if (IS_ERR(cl)) {
     230                 :          0 :                         __idle_hwsp_free(hwsp->private, cacheline);
     231                 :          0 :                         return PTR_ERR(cl);
     232                 :            :                 }
     233                 :            : 
     234                 :          0 :                 timeline->hwsp_cacheline = cl;
     235                 :          0 :                 timeline->hwsp_offset = cacheline * CACHELINE_BYTES;
     236                 :            : 
     237                 :          0 :                 vaddr = page_mask_bits(cl->vaddr);
     238                 :            :         } else {
     239                 :          0 :                 timeline->hwsp_offset = I915_GEM_HWS_SEQNO_ADDR;
     240                 :            : 
     241                 :          0 :                 vaddr = i915_gem_object_pin_map(hwsp->obj, I915_MAP_WB);
     242         [ #  # ]:          0 :                 if (IS_ERR(vaddr))
     243                 :          0 :                         return PTR_ERR(vaddr);
     244                 :            :         }
     245                 :            : 
     246                 :          0 :         timeline->hwsp_seqno =
     247                 :          0 :                 memset(vaddr + timeline->hwsp_offset, 0, CACHELINE_BYTES);
     248                 :            : 
     249                 :          0 :         timeline->hwsp_ggtt = i915_vma_get(hwsp);
     250                 :          0 :         GEM_BUG_ON(timeline->hwsp_offset >= hwsp->size);
     251                 :            : 
     252                 :          0 :         timeline->fence_context = dma_fence_context_alloc(1);
     253                 :            : 
     254                 :          0 :         mutex_init(&timeline->mutex);
     255                 :            : 
     256                 :          0 :         INIT_ACTIVE_FENCE(&timeline->last_request);
     257                 :          0 :         INIT_LIST_HEAD(&timeline->requests);
     258                 :            : 
     259                 :          0 :         i915_syncmap_init(&timeline->sync);
     260                 :            : 
     261                 :          0 :         return 0;
     262                 :            : }
     263                 :            : 
     264                 :          0 : void intel_gt_init_timelines(struct intel_gt *gt)
     265                 :            : {
     266                 :          0 :         struct intel_gt_timelines *timelines = &gt->timelines;
     267                 :            : 
     268                 :          0 :         spin_lock_init(&timelines->lock);
     269                 :          0 :         INIT_LIST_HEAD(&timelines->active_list);
     270                 :            : 
     271                 :          0 :         spin_lock_init(&timelines->hwsp_lock);
     272                 :          0 :         INIT_LIST_HEAD(&timelines->hwsp_free_list);
     273                 :          0 : }
     274                 :            : 
     275                 :          0 : void intel_timeline_fini(struct intel_timeline *timeline)
     276                 :            : {
     277                 :          0 :         GEM_BUG_ON(atomic_read(&timeline->pin_count));
     278                 :          0 :         GEM_BUG_ON(!list_empty(&timeline->requests));
     279                 :          0 :         GEM_BUG_ON(timeline->retire);
     280                 :            : 
     281         [ #  # ]:          0 :         if (timeline->hwsp_cacheline)
     282                 :          0 :                 cacheline_free(timeline->hwsp_cacheline);
     283                 :            :         else
     284                 :          0 :                 i915_gem_object_unpin_map(timeline->hwsp_ggtt->obj);
     285                 :            : 
     286                 :          0 :         i915_vma_put(timeline->hwsp_ggtt);
     287                 :          0 : }
     288                 :            : 
     289                 :            : struct intel_timeline *
     290                 :          0 : intel_timeline_create(struct intel_gt *gt, struct i915_vma *global_hwsp)
     291                 :            : {
     292                 :          0 :         struct intel_timeline *timeline;
     293                 :          0 :         int err;
     294                 :            : 
     295                 :          0 :         timeline = kzalloc(sizeof(*timeline), GFP_KERNEL);
     296         [ #  # ]:          0 :         if (!timeline)
     297                 :            :                 return ERR_PTR(-ENOMEM);
     298                 :            : 
     299                 :          0 :         err = intel_timeline_init(timeline, gt, global_hwsp);
     300         [ #  # ]:          0 :         if (err) {
     301                 :          0 :                 kfree(timeline);
     302                 :          0 :                 return ERR_PTR(err);
     303                 :            :         }
     304                 :            : 
     305                 :            :         return timeline;
     306                 :            : }
     307                 :            : 
     308                 :          0 : int intel_timeline_pin(struct intel_timeline *tl)
     309                 :            : {
     310                 :          0 :         int err;
     311                 :            : 
     312         [ #  # ]:          0 :         if (atomic_add_unless(&tl->pin_count, 1, 0))
     313                 :            :                 return 0;
     314                 :            : 
     315                 :          0 :         err = i915_vma_pin(tl->hwsp_ggtt, 0, 0, PIN_GLOBAL | PIN_HIGH);
     316         [ #  # ]:          0 :         if (err)
     317                 :            :                 return err;
     318                 :            : 
     319                 :          0 :         tl->hwsp_offset =
     320         [ #  # ]:          0 :                 i915_ggtt_offset(tl->hwsp_ggtt) +
     321                 :          0 :                 offset_in_page(tl->hwsp_offset);
     322                 :            : 
     323         [ #  # ]:          0 :         cacheline_acquire(tl->hwsp_cacheline);
     324         [ #  # ]:          0 :         if (atomic_fetch_inc(&tl->pin_count)) {
     325         [ #  # ]:          0 :                 cacheline_release(tl->hwsp_cacheline);
     326                 :          0 :                 __i915_vma_unpin(tl->hwsp_ggtt);
     327                 :            :         }
     328                 :            : 
     329                 :            :         return 0;
     330                 :            : }
     331                 :            : 
     332                 :          0 : void intel_timeline_enter(struct intel_timeline *tl)
     333                 :            : {
     334                 :          0 :         struct intel_gt_timelines *timelines = &tl->gt->timelines;
     335                 :            : 
     336                 :            :         /*
     337                 :            :          * Pretend we are serialised by the timeline->mutex.
     338                 :            :          *
     339                 :            :          * While generally true, there are a few exceptions to the rule
     340                 :            :          * for the engine->kernel_context being used to manage power
     341                 :            :          * transitions. As the engine_park may be called from under any
     342                 :            :          * timeline, it uses the power mutex as a global serialisation
     343                 :            :          * lock to prevent any other request entering its timeline.
     344                 :            :          *
     345                 :            :          * The rule is generally tl->mutex, otherwise engine->wakeref.mutex.
     346                 :            :          *
     347                 :            :          * However, intel_gt_retire_request() does not know which engine
     348                 :            :          * it is retiring along and so cannot partake in the engine-pm
     349                 :            :          * barrier, and there we use the tl->active_count as a means to
     350                 :            :          * pin the timeline in the active_list while the locks are dropped.
     351                 :            :          * Ergo, as that is outside of the engine-pm barrier, we need to
     352                 :            :          * use atomic to manipulate tl->active_count.
     353                 :            :          */
     354                 :          0 :         lockdep_assert_held(&tl->mutex);
     355                 :            : 
     356         [ #  # ]:          0 :         if (atomic_add_unless(&tl->active_count, 1, 0))
     357                 :            :                 return;
     358                 :            : 
     359                 :          0 :         spin_lock(&timelines->lock);
     360         [ #  # ]:          0 :         if (!atomic_fetch_inc(&tl->active_count))
     361                 :          0 :                 list_add_tail(&tl->link, &timelines->active_list);
     362                 :          0 :         spin_unlock(&timelines->lock);
     363                 :            : }
     364                 :            : 
     365                 :          0 : void intel_timeline_exit(struct intel_timeline *tl)
     366                 :            : {
     367                 :          0 :         struct intel_gt_timelines *timelines = &tl->gt->timelines;
     368                 :            : 
     369                 :            :         /* See intel_timeline_enter() */
     370                 :          0 :         lockdep_assert_held(&tl->mutex);
     371                 :            : 
     372                 :          0 :         GEM_BUG_ON(!atomic_read(&tl->active_count));
     373         [ #  # ]:          0 :         if (atomic_add_unless(&tl->active_count, -1, 1))
     374                 :            :                 return;
     375                 :            : 
     376                 :          0 :         spin_lock(&timelines->lock);
     377         [ #  # ]:          0 :         if (atomic_dec_and_test(&tl->active_count))
     378                 :          0 :                 list_del(&tl->link);
     379                 :          0 :         spin_unlock(&timelines->lock);
     380                 :            : 
     381                 :            :         /*
     382                 :            :          * Since this timeline is idle, all bariers upon which we were waiting
     383                 :            :          * must also be complete and so we can discard the last used barriers
     384                 :            :          * without loss of information.
     385                 :            :          */
     386                 :          0 :         i915_syncmap_free(&tl->sync);
     387                 :            : }
     388                 :            : 
     389                 :          0 : static u32 timeline_advance(struct intel_timeline *tl)
     390                 :            : {
     391                 :          0 :         GEM_BUG_ON(!atomic_read(&tl->pin_count));
     392                 :          0 :         GEM_BUG_ON(tl->seqno & tl->has_initial_breadcrumb);
     393                 :            : 
     394                 :          0 :         return tl->seqno += 1 + tl->has_initial_breadcrumb;
     395                 :            : }
     396                 :            : 
     397                 :          0 : static void timeline_rollback(struct intel_timeline *tl)
     398                 :            : {
     399                 :          0 :         tl->seqno -= 1 + tl->has_initial_breadcrumb;
     400                 :            : }
     401                 :            : 
     402                 :            : static noinline int
     403                 :          0 : __intel_timeline_get_seqno(struct intel_timeline *tl,
     404                 :            :                            struct i915_request *rq,
     405                 :            :                            u32 *seqno)
     406                 :            : {
     407                 :          0 :         struct intel_timeline_cacheline *cl;
     408                 :          0 :         unsigned int cacheline;
     409                 :          0 :         struct i915_vma *vma;
     410                 :          0 :         void *vaddr;
     411                 :          0 :         int err;
     412                 :            : 
     413                 :            :         /*
     414                 :            :          * If there is an outstanding GPU reference to this cacheline,
     415                 :            :          * such as it being sampled by a HW semaphore on another timeline,
     416                 :            :          * we cannot wraparound our seqno value (the HW semaphore does
     417                 :            :          * a strict greater-than-or-equals compare, not i915_seqno_passed).
     418                 :            :          * So if the cacheline is still busy, we must detach ourselves
     419                 :            :          * from it and leave it inflight alongside its users.
     420                 :            :          *
     421                 :            :          * However, if nobody is watching and we can guarantee that nobody
     422                 :            :          * will, we could simply reuse the same cacheline.
     423                 :            :          *
     424                 :            :          * if (i915_active_request_is_signaled(&tl->last_request) &&
     425                 :            :          *     i915_active_is_signaled(&tl->hwsp_cacheline->active))
     426                 :            :          *      return 0;
     427                 :            :          *
     428                 :            :          * That seems unlikely for a busy timeline that needed to wrap in
     429                 :            :          * the first place, so just replace the cacheline.
     430                 :            :          */
     431                 :            : 
     432                 :          0 :         vma = hwsp_alloc(tl, &cacheline);
     433         [ #  # ]:          0 :         if (IS_ERR(vma)) {
     434                 :          0 :                 err = PTR_ERR(vma);
     435                 :          0 :                 goto err_rollback;
     436                 :            :         }
     437                 :            : 
     438                 :          0 :         err = i915_vma_pin(vma, 0, 0, PIN_GLOBAL | PIN_HIGH);
     439         [ #  # ]:          0 :         if (err) {
     440                 :          0 :                 __idle_hwsp_free(vma->private, cacheline);
     441                 :          0 :                 goto err_rollback;
     442                 :            :         }
     443                 :            : 
     444                 :          0 :         cl = cacheline_alloc(vma->private, cacheline);
     445         [ #  # ]:          0 :         if (IS_ERR(cl)) {
     446                 :          0 :                 err = PTR_ERR(cl);
     447                 :          0 :                 __idle_hwsp_free(vma->private, cacheline);
     448                 :          0 :                 goto err_unpin;
     449                 :            :         }
     450                 :          0 :         GEM_BUG_ON(cl->hwsp->vma != vma);
     451                 :            : 
     452                 :            :         /*
     453                 :            :          * Attach the old cacheline to the current request, so that we only
     454                 :            :          * free it after the current request is retired, which ensures that
     455                 :            :          * all writes into the cacheline from previous requests are complete.
     456                 :            :          */
     457                 :          0 :         err = i915_active_ref(&tl->hwsp_cacheline->active, tl, &rq->fence);
     458         [ #  # ]:          0 :         if (err)
     459                 :          0 :                 goto err_cacheline;
     460                 :            : 
     461         [ #  # ]:          0 :         cacheline_release(tl->hwsp_cacheline); /* ownership now xfered to rq */
     462                 :          0 :         cacheline_free(tl->hwsp_cacheline);
     463                 :            : 
     464                 :          0 :         i915_vma_unpin(tl->hwsp_ggtt); /* binding kept alive by old cacheline */
     465                 :          0 :         i915_vma_put(tl->hwsp_ggtt);
     466                 :            : 
     467                 :          0 :         tl->hwsp_ggtt = i915_vma_get(vma);
     468                 :            : 
     469                 :          0 :         vaddr = page_mask_bits(cl->vaddr);
     470                 :          0 :         tl->hwsp_offset = cacheline * CACHELINE_BYTES;
     471                 :          0 :         tl->hwsp_seqno =
     472                 :          0 :                 memset(vaddr + tl->hwsp_offset, 0, CACHELINE_BYTES);
     473                 :            : 
     474         [ #  # ]:          0 :         tl->hwsp_offset += i915_ggtt_offset(vma);
     475                 :            : 
     476         [ #  # ]:          0 :         cacheline_acquire(cl);
     477                 :          0 :         tl->hwsp_cacheline = cl;
     478                 :            : 
     479                 :          0 :         *seqno = timeline_advance(tl);
     480                 :          0 :         GEM_BUG_ON(i915_seqno_passed(*tl->hwsp_seqno, *seqno));
     481                 :          0 :         return 0;
     482                 :            : 
     483                 :            : err_cacheline:
     484                 :          0 :         cacheline_free(cl);
     485                 :          0 : err_unpin:
     486                 :          0 :         i915_vma_unpin(vma);
     487                 :          0 : err_rollback:
     488                 :          0 :         timeline_rollback(tl);
     489                 :          0 :         return err;
     490                 :            : }
     491                 :            : 
     492                 :          0 : int intel_timeline_get_seqno(struct intel_timeline *tl,
     493                 :            :                              struct i915_request *rq,
     494                 :            :                              u32 *seqno)
     495                 :            : {
     496                 :          0 :         *seqno = timeline_advance(tl);
     497                 :            : 
     498                 :            :         /* Replace the HWSP on wraparound for HW semaphores */
     499   [ #  #  #  # ]:          0 :         if (unlikely(!*seqno && tl->hwsp_cacheline))
     500                 :          0 :                 return __intel_timeline_get_seqno(tl, rq, seqno);
     501                 :            : 
     502                 :            :         return 0;
     503                 :            : }
     504                 :            : 
     505                 :          0 : static int cacheline_ref(struct intel_timeline_cacheline *cl,
     506                 :            :                          struct i915_request *rq)
     507                 :            : {
     508                 :          0 :         return i915_active_add_request(&cl->active, rq);
     509                 :            : }
     510                 :            : 
     511                 :          0 : int intel_timeline_read_hwsp(struct i915_request *from,
     512                 :            :                              struct i915_request *to,
     513                 :            :                              u32 *hwsp)
     514                 :            : {
     515                 :          0 :         struct intel_timeline_cacheline *cl;
     516                 :          0 :         int err;
     517                 :            : 
     518                 :          0 :         GEM_BUG_ON(!rcu_access_pointer(from->hwsp_cacheline));
     519                 :            : 
     520                 :          0 :         rcu_read_lock();
     521                 :          0 :         cl = rcu_dereference(from->hwsp_cacheline);
     522         [ #  # ]:          0 :         if (unlikely(!i915_active_acquire_if_busy(&cl->active)))
     523                 :          0 :                 goto unlock; /* seqno wrapped and completed! */
     524         [ #  # ]:          0 :         if (unlikely(i915_request_completed(from)))
     525                 :          0 :                 goto release;
     526                 :          0 :         rcu_read_unlock();
     527                 :            : 
     528                 :          0 :         err = cacheline_ref(cl, to);
     529         [ #  # ]:          0 :         if (err)
     530                 :          0 :                 goto out;
     531                 :            : 
     532                 :          0 :         *hwsp = i915_ggtt_offset(cl->hwsp->vma) +
     533                 :          0 :                 ptr_unmask_bits(cl->vaddr, CACHELINE_BITS) * CACHELINE_BYTES;
     534                 :            : 
     535                 :          0 : out:
     536                 :          0 :         i915_active_release(&cl->active);
     537                 :          0 :         return err;
     538                 :            : 
     539                 :            : release:
     540                 :          0 :         i915_active_release(&cl->active);
     541                 :          0 : unlock:
     542                 :          0 :         rcu_read_unlock();
     543                 :          0 :         return 1;
     544                 :            : }
     545                 :            : 
     546                 :          0 : void intel_timeline_unpin(struct intel_timeline *tl)
     547                 :            : {
     548                 :          0 :         GEM_BUG_ON(!atomic_read(&tl->pin_count));
     549         [ #  # ]:          0 :         if (!atomic_dec_and_test(&tl->pin_count))
     550                 :            :                 return;
     551                 :            : 
     552         [ #  # ]:          0 :         cacheline_release(tl->hwsp_cacheline);
     553                 :            : 
     554                 :          0 :         __i915_vma_unpin(tl->hwsp_ggtt);
     555                 :            : }
     556                 :            : 
     557                 :          0 : void __intel_timeline_free(struct kref *kref)
     558                 :            : {
     559                 :          0 :         struct intel_timeline *timeline =
     560                 :          0 :                 container_of(kref, typeof(*timeline), kref);
     561                 :            : 
     562                 :          0 :         intel_timeline_fini(timeline);
     563         [ #  # ]:          0 :         kfree_rcu(timeline, rcu);
     564                 :          0 : }
     565                 :            : 
     566                 :          0 : void intel_gt_fini_timelines(struct intel_gt *gt)
     567                 :            : {
     568                 :          0 :         struct intel_gt_timelines *timelines = &gt->timelines;
     569                 :            : 
     570                 :          0 :         GEM_BUG_ON(!list_empty(&timelines->active_list));
     571                 :          0 :         GEM_BUG_ON(!list_empty(&timelines->hwsp_free_list));
     572                 :          0 : }
     573                 :            : 
     574                 :            : #if IS_ENABLED(CONFIG_DRM_I915_SELFTEST)
     575                 :            : #include "gt/selftests/mock_timeline.c"
     576                 :            : #include "gt/selftest_timeline.c"
     577                 :            : #endif

Generated by: LCOV version 1.14