Branch data Line data Source code
1 : : // SPDX-License-Identifier: GPL-2.0-only
2 : : #include <linux/module.h>
3 : :
4 : : #include <asm/cpu_device_id.h>
5 : : #include <asm/intel-family.h>
6 : : #include "uncore.h"
7 : :
8 : : static struct intel_uncore_type *empty_uncore[] = { NULL, };
9 : : struct intel_uncore_type **uncore_msr_uncores = empty_uncore;
10 : : struct intel_uncore_type **uncore_pci_uncores = empty_uncore;
11 : : struct intel_uncore_type **uncore_mmio_uncores = empty_uncore;
12 : :
13 : : static bool pcidrv_registered;
14 : : struct pci_driver *uncore_pci_driver;
15 : : /* pci bus to socket mapping */
16 : : DEFINE_RAW_SPINLOCK(pci2phy_map_lock);
17 : : struct list_head pci2phy_map_head = LIST_HEAD_INIT(pci2phy_map_head);
18 : : struct pci_extra_dev *uncore_extra_pci_dev;
19 : : static int max_dies;
20 : :
21 : : /* mask of cpus that collect uncore events */
22 : : static cpumask_t uncore_cpu_mask;
23 : :
24 : : /* constraint for the fixed counter */
25 : : static struct event_constraint uncore_constraint_fixed =
26 : : EVENT_CONSTRAINT(~0ULL, 1 << UNCORE_PMC_IDX_FIXED, ~0ULL);
27 : : struct event_constraint uncore_constraint_empty =
28 : : EVENT_CONSTRAINT(0, 0, 0);
29 : :
30 : : MODULE_LICENSE("GPL");
31 : :
32 : 0 : int uncore_pcibus_to_physid(struct pci_bus *bus)
33 : : {
34 : 0 : struct pci2phy_map *map;
35 : 0 : int phys_id = -1;
36 : :
37 : 0 : raw_spin_lock(&pci2phy_map_lock);
38 [ # # ]: 0 : list_for_each_entry(map, &pci2phy_map_head, list) {
39 [ # # ]: 0 : if (map->segment == pci_domain_nr(bus)) {
40 : 0 : phys_id = map->pbus_to_physid[bus->number];
41 : 0 : break;
42 : : }
43 : : }
44 : 0 : raw_spin_unlock(&pci2phy_map_lock);
45 : :
46 : 0 : return phys_id;
47 : : }
48 : :
49 : 0 : static void uncore_free_pcibus_map(void)
50 : : {
51 : 0 : struct pci2phy_map *map, *tmp;
52 : :
53 [ # # ]: 0 : list_for_each_entry_safe(map, tmp, &pci2phy_map_head, list) {
54 : 0 : list_del(&map->list);
55 : 0 : kfree(map);
56 : : }
57 : 0 : }
58 : :
59 : 0 : struct pci2phy_map *__find_pci2phy_map(int segment)
60 : : {
61 : 0 : struct pci2phy_map *map, *alloc = NULL;
62 : 0 : int i;
63 : :
64 : 0 : lockdep_assert_held(&pci2phy_map_lock);
65 : :
66 : 0 : lookup:
67 [ # # ]: 0 : list_for_each_entry(map, &pci2phy_map_head, list) {
68 [ # # ]: 0 : if (map->segment == segment)
69 : 0 : goto end;
70 : : }
71 : :
72 [ # # ]: 0 : if (!alloc) {
73 : 0 : raw_spin_unlock(&pci2phy_map_lock);
74 : 0 : alloc = kmalloc(sizeof(struct pci2phy_map), GFP_KERNEL);
75 : 0 : raw_spin_lock(&pci2phy_map_lock);
76 : :
77 [ # # ]: 0 : if (!alloc)
78 : : return NULL;
79 : :
80 : 0 : goto lookup;
81 : : }
82 : :
83 : 0 : map = alloc;
84 : 0 : alloc = NULL;
85 : 0 : map->segment = segment;
86 [ # # ]: 0 : for (i = 0; i < 256; i++)
87 : 0 : map->pbus_to_physid[i] = -1;
88 : 0 : list_add_tail(&map->list, &pci2phy_map_head);
89 : :
90 : 0 : end:
91 : 0 : kfree(alloc);
92 : 0 : return map;
93 : : }
94 : :
95 : 0 : ssize_t uncore_event_show(struct kobject *kobj,
96 : : struct kobj_attribute *attr, char *buf)
97 : : {
98 : 0 : struct uncore_event_desc *event =
99 : 0 : container_of(attr, struct uncore_event_desc, attr);
100 : 0 : return sprintf(buf, "%s", event->config);
101 : : }
102 : :
103 : 0 : struct intel_uncore_box *uncore_pmu_to_box(struct intel_uncore_pmu *pmu, int cpu)
104 : : {
105 : 0 : unsigned int dieid = topology_logical_die_id(cpu);
106 : :
107 : : /*
108 : : * The unsigned check also catches the '-1' return value for non
109 : : * existent mappings in the topology map.
110 : : */
111 [ # # # # : 0 : return dieid < max_dies ? pmu->boxes[dieid] : NULL;
# # ]
112 : : }
113 : :
114 : 0 : u64 uncore_msr_read_counter(struct intel_uncore_box *box, struct perf_event *event)
115 : : {
116 : 0 : u64 count;
117 : :
118 : 0 : rdmsrl(event->hw.event_base, count);
119 : :
120 : 0 : return count;
121 : : }
122 : :
123 : 0 : void uncore_mmio_exit_box(struct intel_uncore_box *box)
124 : : {
125 [ # # ]: 0 : if (box->io_addr)
126 : 0 : iounmap(box->io_addr);
127 : 0 : }
128 : :
129 : 0 : u64 uncore_mmio_read_counter(struct intel_uncore_box *box,
130 : : struct perf_event *event)
131 : : {
132 [ # # ]: 0 : if (!box->io_addr)
133 : : return 0;
134 : :
135 : 0 : return readq(box->io_addr + event->hw.event_base);
136 : : }
137 : :
138 : : /*
139 : : * generic get constraint function for shared match/mask registers.
140 : : */
141 : : struct event_constraint *
142 : 0 : uncore_get_constraint(struct intel_uncore_box *box, struct perf_event *event)
143 : : {
144 : 0 : struct intel_uncore_extra_reg *er;
145 : 0 : struct hw_perf_event_extra *reg1 = &event->hw.extra_reg;
146 : 0 : struct hw_perf_event_extra *reg2 = &event->hw.branch_reg;
147 : 0 : unsigned long flags;
148 : 0 : bool ok = false;
149 : :
150 : : /*
151 : : * reg->alloc can be set due to existing state, so for fake box we
152 : : * need to ignore this, otherwise we might fail to allocate proper
153 : : * fake state for this extra reg constraint.
154 : : */
155 [ # # # # ]: 0 : if (reg1->idx == EXTRA_REG_NONE ||
156 [ # # # # ]: 0 : (!uncore_box_is_fake(box) && reg1->alloc))
157 : : return NULL;
158 : :
159 : 0 : er = &box->shared_regs[reg1->idx];
160 : 0 : raw_spin_lock_irqsave(&er->lock, flags);
161 [ # # ]: 0 : if (!atomic_read(&er->ref) ||
162 [ # # # # ]: 0 : (er->config1 == reg1->config && er->config2 == reg2->config)) {
163 : 0 : atomic_inc(&er->ref);
164 : 0 : er->config1 = reg1->config;
165 : 0 : er->config2 = reg2->config;
166 : 0 : ok = true;
167 : : }
168 : 0 : raw_spin_unlock_irqrestore(&er->lock, flags);
169 : :
170 [ # # ]: 0 : if (ok) {
171 [ # # ]: 0 : if (!uncore_box_is_fake(box))
172 : 0 : reg1->alloc = 1;
173 : 0 : return NULL;
174 : : }
175 : :
176 : : return &uncore_constraint_empty;
177 : : }
178 : :
179 : 0 : void uncore_put_constraint(struct intel_uncore_box *box, struct perf_event *event)
180 : : {
181 : 0 : struct intel_uncore_extra_reg *er;
182 : 0 : struct hw_perf_event_extra *reg1 = &event->hw.extra_reg;
183 : :
184 : : /*
185 : : * Only put constraint if extra reg was actually allocated. Also
186 : : * takes care of event which do not use an extra shared reg.
187 : : *
188 : : * Also, if this is a fake box we shouldn't touch any event state
189 : : * (reg->alloc) and we don't care about leaving inconsistent box
190 : : * state either since it will be thrown out.
191 : : */
192 [ # # # # ]: 0 : if (uncore_box_is_fake(box) || !reg1->alloc)
193 : : return;
194 : :
195 : 0 : er = &box->shared_regs[reg1->idx];
196 : 0 : atomic_dec(&er->ref);
197 : 0 : reg1->alloc = 0;
198 : : }
199 : :
200 : 0 : u64 uncore_shared_reg_config(struct intel_uncore_box *box, int idx)
201 : : {
202 : 0 : struct intel_uncore_extra_reg *er;
203 : 0 : unsigned long flags;
204 : 0 : u64 config;
205 : :
206 : 0 : er = &box->shared_regs[idx];
207 : :
208 : 0 : raw_spin_lock_irqsave(&er->lock, flags);
209 : 0 : config = er->config;
210 : 0 : raw_spin_unlock_irqrestore(&er->lock, flags);
211 : :
212 : 0 : return config;
213 : : }
214 : :
215 : 0 : static void uncore_assign_hw_event(struct intel_uncore_box *box,
216 : : struct perf_event *event, int idx)
217 : : {
218 : 0 : struct hw_perf_event *hwc = &event->hw;
219 : :
220 : 0 : hwc->idx = idx;
221 : 0 : hwc->last_tag = ++box->tags[idx];
222 : :
223 [ # # ]: 0 : if (uncore_pmc_fixed(hwc->idx)) {
224 : 0 : hwc->event_base = uncore_fixed_ctr(box);
225 : 0 : hwc->config_base = uncore_fixed_ctl(box);
226 : 0 : return;
227 : : }
228 : :
229 : 0 : hwc->config_base = uncore_event_ctl(box, hwc->idx);
230 : 0 : hwc->event_base = uncore_perf_ctr(box, hwc->idx);
231 : : }
232 : :
233 : 0 : void uncore_perf_event_update(struct intel_uncore_box *box, struct perf_event *event)
234 : : {
235 : 0 : u64 prev_count, new_count, delta;
236 : 0 : int shift;
237 : :
238 [ # # ]: 0 : if (uncore_pmc_freerunning(event->hw.idx))
239 : 0 : shift = 64 - uncore_freerunning_bits(box, event);
240 [ # # ]: 0 : else if (uncore_pmc_fixed(event->hw.idx))
241 : 0 : shift = 64 - uncore_fixed_ctr_bits(box);
242 : : else
243 : 0 : shift = 64 - uncore_perf_ctr_bits(box);
244 : :
245 : : /* the hrtimer might modify the previous event value */
246 : 0 : again:
247 : 0 : prev_count = local64_read(&event->hw.prev_count);
248 : 0 : new_count = uncore_read_counter(box, event);
249 [ # # ]: 0 : if (local64_xchg(&event->hw.prev_count, new_count) != prev_count)
250 : 0 : goto again;
251 : :
252 : 0 : delta = (new_count << shift) - (prev_count << shift);
253 : 0 : delta >>= shift;
254 : :
255 : 0 : local64_add(delta, &event->count);
256 : 0 : }
257 : :
258 : : /*
259 : : * The overflow interrupt is unavailable for SandyBridge-EP, is broken
260 : : * for SandyBridge. So we use hrtimer to periodically poll the counter
261 : : * to avoid overflow.
262 : : */
263 : 0 : static enum hrtimer_restart uncore_pmu_hrtimer(struct hrtimer *hrtimer)
264 : : {
265 : 0 : struct intel_uncore_box *box;
266 : 0 : struct perf_event *event;
267 : 0 : unsigned long flags;
268 : 0 : int bit;
269 : :
270 : 0 : box = container_of(hrtimer, struct intel_uncore_box, hrtimer);
271 [ # # # # ]: 0 : if (!box->n_active || box->cpu != smp_processor_id())
272 : : return HRTIMER_NORESTART;
273 : : /*
274 : : * disable local interrupt to prevent uncore_pmu_event_start/stop
275 : : * to interrupt the update process
276 : : */
277 : 0 : local_irq_save(flags);
278 : :
279 : : /*
280 : : * handle boxes with an active event list as opposed to active
281 : : * counters
282 : : */
283 [ # # ]: 0 : list_for_each_entry(event, &box->active_list, active_entry) {
284 : 0 : uncore_perf_event_update(box, event);
285 : : }
286 : :
287 [ # # ]: 0 : for_each_set_bit(bit, box->active_mask, UNCORE_PMC_IDX_MAX)
288 : 0 : uncore_perf_event_update(box, box->events[bit]);
289 : :
290 : 0 : local_irq_restore(flags);
291 : :
292 : 0 : hrtimer_forward_now(hrtimer, ns_to_ktime(box->hrtimer_duration));
293 : 0 : return HRTIMER_RESTART;
294 : : }
295 : :
296 : 0 : void uncore_pmu_start_hrtimer(struct intel_uncore_box *box)
297 : : {
298 : 0 : hrtimer_start(&box->hrtimer, ns_to_ktime(box->hrtimer_duration),
299 : : HRTIMER_MODE_REL_PINNED);
300 : 0 : }
301 : :
302 : 0 : void uncore_pmu_cancel_hrtimer(struct intel_uncore_box *box)
303 : : {
304 : 0 : hrtimer_cancel(&box->hrtimer);
305 : 0 : }
306 : :
307 : 0 : static void uncore_pmu_init_hrtimer(struct intel_uncore_box *box)
308 : : {
309 : 0 : hrtimer_init(&box->hrtimer, CLOCK_MONOTONIC, HRTIMER_MODE_REL);
310 : 0 : box->hrtimer.function = uncore_pmu_hrtimer;
311 : : }
312 : :
313 : 0 : static struct intel_uncore_box *uncore_alloc_box(struct intel_uncore_type *type,
314 : : int node)
315 : : {
316 : 0 : int i, size, numshared = type->num_shared_regs ;
317 : 0 : struct intel_uncore_box *box;
318 : :
319 : 0 : size = sizeof(*box) + numshared * sizeof(struct intel_uncore_extra_reg);
320 : :
321 : 0 : box = kzalloc_node(size, GFP_KERNEL, node);
322 [ # # ]: 0 : if (!box)
323 : : return NULL;
324 : :
325 [ # # ]: 0 : for (i = 0; i < numshared; i++)
326 : 0 : raw_spin_lock_init(&box->shared_regs[i].lock);
327 : :
328 : 0 : uncore_pmu_init_hrtimer(box);
329 : 0 : box->cpu = -1;
330 : 0 : box->pci_phys_id = -1;
331 : 0 : box->dieid = -1;
332 : :
333 : : /* set default hrtimer timeout */
334 : 0 : box->hrtimer_duration = UNCORE_PMU_HRTIMER_INTERVAL;
335 : :
336 : 0 : INIT_LIST_HEAD(&box->active_list);
337 : :
338 : 0 : return box;
339 : : }
340 : :
341 : : /*
342 : : * Using uncore_pmu_event_init pmu event_init callback
343 : : * as a detection point for uncore events.
344 : : */
345 : : static int uncore_pmu_event_init(struct perf_event *event);
346 : :
347 : 0 : static bool is_box_event(struct intel_uncore_box *box, struct perf_event *event)
348 : : {
349 : 0 : return &box->pmu->pmu == event->pmu;
350 : : }
351 : :
352 : : static int
353 : 0 : uncore_collect_events(struct intel_uncore_box *box, struct perf_event *leader,
354 : : bool dogrp)
355 : : {
356 : 0 : struct perf_event *event;
357 : 0 : int n, max_count;
358 : :
359 : 0 : max_count = box->pmu->type->num_counters;
360 [ # # ]: 0 : if (box->pmu->type->fixed_ctl)
361 : 0 : max_count++;
362 : :
363 [ # # ]: 0 : if (box->n_events >= max_count)
364 : : return -EINVAL;
365 : :
366 : 0 : n = box->n_events;
367 : :
368 [ # # ]: 0 : if (is_box_event(box, leader)) {
369 : 0 : box->event_list[n] = leader;
370 : 0 : n++;
371 : : }
372 : :
373 [ # # ]: 0 : if (!dogrp)
374 : : return n;
375 : :
376 [ # # # # ]: 0 : for_each_sibling_event(event, leader) {
377 [ # # ]: 0 : if (!is_box_event(box, event) ||
378 [ # # ]: 0 : event->state <= PERF_EVENT_STATE_OFF)
379 : 0 : continue;
380 : :
381 [ # # ]: 0 : if (n >= max_count)
382 : : return -EINVAL;
383 : :
384 : 0 : box->event_list[n] = event;
385 : 0 : n++;
386 : : }
387 : : return n;
388 : : }
389 : :
390 : : static struct event_constraint *
391 : 0 : uncore_get_event_constraint(struct intel_uncore_box *box, struct perf_event *event)
392 : : {
393 : 0 : struct intel_uncore_type *type = box->pmu->type;
394 : 0 : struct event_constraint *c;
395 : :
396 [ # # ]: 0 : if (type->ops->get_constraint) {
397 : 0 : c = type->ops->get_constraint(box, event);
398 [ # # ]: 0 : if (c)
399 : : return c;
400 : : }
401 : :
402 [ # # ]: 0 : if (event->attr.config == UNCORE_FIXED_EVENT)
403 : : return &uncore_constraint_fixed;
404 : :
405 [ # # ]: 0 : if (type->constraints) {
406 [ # # ]: 0 : for_each_event_constraint(c, type->constraints) {
407 [ # # ]: 0 : if ((event->hw.config & c->cmask) == c->code)
408 : 0 : return c;
409 : : }
410 : : }
411 : :
412 : 0 : return &type->unconstrainted;
413 : : }
414 : :
415 : 0 : static void uncore_put_event_constraint(struct intel_uncore_box *box,
416 : : struct perf_event *event)
417 : : {
418 : 0 : if (box->pmu->type->ops->put_constraint)
419 : 0 : box->pmu->type->ops->put_constraint(box, event);
420 : : }
421 : :
422 : 0 : static int uncore_assign_events(struct intel_uncore_box *box, int assign[], int n)
423 : : {
424 : 0 : unsigned long used_mask[BITS_TO_LONGS(UNCORE_PMC_IDX_MAX)];
425 : 0 : struct event_constraint *c;
426 : 0 : int i, wmin, wmax, ret = 0;
427 : 0 : struct hw_perf_event *hwc;
428 : :
429 : 0 : bitmap_zero(used_mask, UNCORE_PMC_IDX_MAX);
430 : :
431 [ # # ]: 0 : for (i = 0, wmin = UNCORE_PMC_IDX_MAX, wmax = 0; i < n; i++) {
432 : 0 : c = uncore_get_event_constraint(box, box->event_list[i]);
433 : 0 : box->event_constraint[i] = c;
434 : 0 : wmin = min(wmin, c->weight);
435 : 0 : wmax = max(wmax, c->weight);
436 : : }
437 : :
438 : : /* fastpath, try to reuse previous register */
439 [ # # ]: 0 : for (i = 0; i < n; i++) {
440 : 0 : hwc = &box->event_list[i]->hw;
441 : 0 : c = box->event_constraint[i];
442 : :
443 : : /* never assigned */
444 [ # # ]: 0 : if (hwc->idx == -1)
445 : : break;
446 : :
447 : : /* constraint still honored */
448 [ # # ]: 0 : if (!test_bit(hwc->idx, c->idxmsk))
449 : : break;
450 : :
451 : : /* not already used */
452 [ # # ]: 0 : if (test_bit(hwc->idx, used_mask))
453 : : break;
454 : :
455 : 0 : __set_bit(hwc->idx, used_mask);
456 [ # # ]: 0 : if (assign)
457 : 0 : assign[i] = hwc->idx;
458 : : }
459 : : /* slow path */
460 [ # # ]: 0 : if (i != n)
461 : 0 : ret = perf_assign_events(box->event_constraint, n,
462 : : wmin, wmax, n, assign);
463 : :
464 [ # # ]: 0 : if (!assign || ret) {
465 [ # # ]: 0 : for (i = 0; i < n; i++)
466 [ # # ]: 0 : uncore_put_event_constraint(box, box->event_list[i]);
467 : : }
468 [ # # ]: 0 : return ret ? -EINVAL : 0;
469 : : }
470 : :
471 : 0 : void uncore_pmu_event_start(struct perf_event *event, int flags)
472 : : {
473 [ # # ]: 0 : struct intel_uncore_box *box = uncore_event_to_box(event);
474 : 0 : int idx = event->hw.idx;
475 : :
476 [ # # # # ]: 0 : if (WARN_ON_ONCE(idx == -1 || idx >= UNCORE_PMC_IDX_MAX))
477 : : return;
478 : :
479 : : /*
480 : : * Free running counter is read-only and always active.
481 : : * Use the current counter value as start point.
482 : : * There is no overflow interrupt for free running counter.
483 : : * Use hrtimer to periodically poll the counter to avoid overflow.
484 : : */
485 [ # # ]: 0 : if (uncore_pmc_freerunning(event->hw.idx)) {
486 : 0 : list_add_tail(&event->active_entry, &box->active_list);
487 : 0 : local64_set(&event->hw.prev_count,
488 : : uncore_read_counter(box, event));
489 [ # # ]: 0 : if (box->n_active++ == 0)
490 : 0 : uncore_pmu_start_hrtimer(box);
491 : 0 : return;
492 : : }
493 : :
494 [ # # # # ]: 0 : if (WARN_ON_ONCE(!(event->hw.state & PERF_HES_STOPPED)))
495 : : return;
496 : :
497 : 0 : event->hw.state = 0;
498 : 0 : box->events[idx] = event;
499 : 0 : box->n_active++;
500 : 0 : __set_bit(idx, box->active_mask);
501 : :
502 : 0 : local64_set(&event->hw.prev_count, uncore_read_counter(box, event));
503 : 0 : uncore_enable_event(box, event);
504 : :
505 [ # # ]: 0 : if (box->n_active == 1)
506 : 0 : uncore_pmu_start_hrtimer(box);
507 : : }
508 : :
509 : 0 : void uncore_pmu_event_stop(struct perf_event *event, int flags)
510 : : {
511 [ # # ]: 0 : struct intel_uncore_box *box = uncore_event_to_box(event);
512 : 0 : struct hw_perf_event *hwc = &event->hw;
513 : :
514 : : /* Cannot disable free running counter which is read-only */
515 [ # # ]: 0 : if (uncore_pmc_freerunning(hwc->idx)) {
516 [ # # ]: 0 : list_del(&event->active_entry);
517 [ # # ]: 0 : if (--box->n_active == 0)
518 : 0 : uncore_pmu_cancel_hrtimer(box);
519 : 0 : uncore_perf_event_update(box, event);
520 : 0 : return;
521 : : }
522 : :
523 [ # # ]: 0 : if (__test_and_clear_bit(hwc->idx, box->active_mask)) {
524 : 0 : uncore_disable_event(box, event);
525 : 0 : box->n_active--;
526 : 0 : box->events[hwc->idx] = NULL;
527 [ # # ]: 0 : WARN_ON_ONCE(hwc->state & PERF_HES_STOPPED);
528 : 0 : hwc->state |= PERF_HES_STOPPED;
529 : :
530 [ # # ]: 0 : if (box->n_active == 0)
531 : 0 : uncore_pmu_cancel_hrtimer(box);
532 : : }
533 : :
534 [ # # # # ]: 0 : if ((flags & PERF_EF_UPDATE) && !(hwc->state & PERF_HES_UPTODATE)) {
535 : : /*
536 : : * Drain the remaining delta count out of a event
537 : : * that we are disabling:
538 : : */
539 : 0 : uncore_perf_event_update(box, event);
540 : 0 : hwc->state |= PERF_HES_UPTODATE;
541 : : }
542 : : }
543 : :
544 : 0 : int uncore_pmu_event_add(struct perf_event *event, int flags)
545 : : {
546 [ # # ]: 0 : struct intel_uncore_box *box = uncore_event_to_box(event);
547 : 0 : struct hw_perf_event *hwc = &event->hw;
548 : 0 : int assign[UNCORE_PMC_IDX_MAX];
549 : 0 : int i, n, ret;
550 : :
551 [ # # ]: 0 : if (!box)
552 : : return -ENODEV;
553 : :
554 : : /*
555 : : * The free funning counter is assigned in event_init().
556 : : * The free running counter event and free running counter
557 : : * are 1:1 mapped. It doesn't need to be tracked in event_list.
558 : : */
559 [ # # ]: 0 : if (uncore_pmc_freerunning(hwc->idx)) {
560 [ # # ]: 0 : if (flags & PERF_EF_START)
561 : 0 : uncore_pmu_event_start(event, 0);
562 : 0 : return 0;
563 : : }
564 : :
565 : 0 : ret = n = uncore_collect_events(box, event, false);
566 [ # # ]: 0 : if (ret < 0)
567 : : return ret;
568 : :
569 : 0 : hwc->state = PERF_HES_UPTODATE | PERF_HES_STOPPED;
570 [ # # ]: 0 : if (!(flags & PERF_EF_START))
571 : 0 : hwc->state |= PERF_HES_ARCH;
572 : :
573 : 0 : ret = uncore_assign_events(box, assign, n);
574 [ # # ]: 0 : if (ret)
575 : : return ret;
576 : :
577 : : /* save events moving to new counters */
578 [ # # ]: 0 : for (i = 0; i < box->n_events; i++) {
579 : 0 : event = box->event_list[i];
580 : 0 : hwc = &event->hw;
581 : :
582 [ # # ]: 0 : if (hwc->idx == assign[i] &&
583 [ # # ]: 0 : hwc->last_tag == box->tags[assign[i]])
584 : 0 : continue;
585 : : /*
586 : : * Ensure we don't accidentally enable a stopped
587 : : * counter simply because we rescheduled.
588 : : */
589 [ # # ]: 0 : if (hwc->state & PERF_HES_STOPPED)
590 : 0 : hwc->state |= PERF_HES_ARCH;
591 : :
592 : 0 : uncore_pmu_event_stop(event, PERF_EF_UPDATE);
593 : : }
594 : :
595 : : /* reprogram moved events into new counters */
596 [ # # ]: 0 : for (i = 0; i < n; i++) {
597 : 0 : event = box->event_list[i];
598 : 0 : hwc = &event->hw;
599 : :
600 [ # # ]: 0 : if (hwc->idx != assign[i] ||
601 [ # # ]: 0 : hwc->last_tag != box->tags[assign[i]])
602 : 0 : uncore_assign_hw_event(box, event, assign[i]);
603 [ # # ]: 0 : else if (i < box->n_events)
604 : 0 : continue;
605 : :
606 [ # # ]: 0 : if (hwc->state & PERF_HES_ARCH)
607 : 0 : continue;
608 : :
609 : 0 : uncore_pmu_event_start(event, 0);
610 : : }
611 : 0 : box->n_events = n;
612 : :
613 : 0 : return 0;
614 : : }
615 : :
616 : 0 : void uncore_pmu_event_del(struct perf_event *event, int flags)
617 : : {
618 : 0 : struct intel_uncore_box *box = uncore_event_to_box(event);
619 : 0 : int i;
620 : :
621 : 0 : uncore_pmu_event_stop(event, PERF_EF_UPDATE);
622 : :
623 : : /*
624 : : * The event for free running counter is not tracked by event_list.
625 : : * It doesn't need to force event->hw.idx = -1 to reassign the counter.
626 : : * Because the event and the free running counter are 1:1 mapped.
627 : : */
628 [ # # ]: 0 : if (uncore_pmc_freerunning(event->hw.idx))
629 : : return;
630 : :
631 [ # # ]: 0 : for (i = 0; i < box->n_events; i++) {
632 [ # # ]: 0 : if (event == box->event_list[i]) {
633 [ # # ]: 0 : uncore_put_event_constraint(box, event);
634 : :
635 [ # # ]: 0 : for (++i; i < box->n_events; i++)
636 : 0 : box->event_list[i - 1] = box->event_list[i];
637 : :
638 : 0 : --box->n_events;
639 : 0 : break;
640 : : }
641 : : }
642 : :
643 : 0 : event->hw.idx = -1;
644 : 0 : event->hw.last_tag = ~0ULL;
645 : : }
646 : :
647 : 0 : void uncore_pmu_event_read(struct perf_event *event)
648 : : {
649 : 0 : struct intel_uncore_box *box = uncore_event_to_box(event);
650 : 0 : uncore_perf_event_update(box, event);
651 : 0 : }
652 : :
653 : : /*
654 : : * validation ensures the group can be loaded onto the
655 : : * PMU if it was the only group available.
656 : : */
657 : 0 : static int uncore_validate_group(struct intel_uncore_pmu *pmu,
658 : : struct perf_event *event)
659 : : {
660 : 0 : struct perf_event *leader = event->group_leader;
661 : 0 : struct intel_uncore_box *fake_box;
662 : 0 : int ret = -EINVAL, n;
663 : :
664 : : /* The free running counter is always active. */
665 [ # # ]: 0 : if (uncore_pmc_freerunning(event->hw.idx))
666 : : return 0;
667 : :
668 : 0 : fake_box = uncore_alloc_box(pmu->type, NUMA_NO_NODE);
669 [ # # ]: 0 : if (!fake_box)
670 : : return -ENOMEM;
671 : :
672 : 0 : fake_box->pmu = pmu;
673 : : /*
674 : : * the event is not yet connected with its
675 : : * siblings therefore we must first collect
676 : : * existing siblings, then add the new event
677 : : * before we can simulate the scheduling
678 : : */
679 : 0 : n = uncore_collect_events(fake_box, leader, true);
680 [ # # ]: 0 : if (n < 0)
681 : 0 : goto out;
682 : :
683 : 0 : fake_box->n_events = n;
684 : 0 : n = uncore_collect_events(fake_box, event, false);
685 [ # # ]: 0 : if (n < 0)
686 : 0 : goto out;
687 : :
688 : 0 : fake_box->n_events = n;
689 : :
690 : 0 : ret = uncore_assign_events(fake_box, NULL, n);
691 : 0 : out:
692 : 0 : kfree(fake_box);
693 : 0 : return ret;
694 : : }
695 : :
696 : 0 : static int uncore_pmu_event_init(struct perf_event *event)
697 : : {
698 : 0 : struct intel_uncore_pmu *pmu;
699 : 0 : struct intel_uncore_box *box;
700 : 0 : struct hw_perf_event *hwc = &event->hw;
701 : 0 : int ret;
702 : :
703 [ # # ]: 0 : if (event->attr.type != event->pmu->type)
704 : : return -ENOENT;
705 : :
706 [ # # ]: 0 : pmu = uncore_event_to_pmu(event);
707 : : /* no device found for this pmu */
708 [ # # ]: 0 : if (pmu->func_id < 0)
709 : : return -ENOENT;
710 : :
711 : : /* Sampling not supported yet */
712 [ # # ]: 0 : if (hwc->sample_period)
713 : : return -EINVAL;
714 : :
715 : : /*
716 : : * Place all uncore events for a particular physical package
717 : : * onto a single cpu
718 : : */
719 [ # # ]: 0 : if (event->cpu < 0)
720 : : return -EINVAL;
721 [ # # ]: 0 : box = uncore_pmu_to_box(pmu, event->cpu);
722 [ # # # # ]: 0 : if (!box || box->cpu < 0)
723 : : return -EINVAL;
724 : 0 : event->cpu = box->cpu;
725 : 0 : event->pmu_private = box;
726 : :
727 : 0 : event->event_caps |= PERF_EV_CAP_READ_ACTIVE_PKG;
728 : :
729 : 0 : event->hw.idx = -1;
730 : 0 : event->hw.last_tag = ~0ULL;
731 : 0 : event->hw.extra_reg.idx = EXTRA_REG_NONE;
732 : 0 : event->hw.branch_reg.idx = EXTRA_REG_NONE;
733 : :
734 [ # # ]: 0 : if (event->attr.config == UNCORE_FIXED_EVENT) {
735 : : /* no fixed counter */
736 [ # # ]: 0 : if (!pmu->type->fixed_ctl)
737 : : return -EINVAL;
738 : : /*
739 : : * if there is only one fixed counter, only the first pmu
740 : : * can access the fixed counter
741 : : */
742 [ # # # # ]: 0 : if (pmu->type->single_fixed && pmu->pmu_idx > 0)
743 : : return -EINVAL;
744 : :
745 : : /* fixed counters have event field hardcoded to zero */
746 : 0 : hwc->config = 0ULL;
747 [ # # # # ]: 0 : } else if (is_freerunning_event(event)) {
748 : 0 : hwc->config = event->attr.config;
749 [ # # # # ]: 0 : if (!check_valid_freerunning_event(box, event))
750 : : return -EINVAL;
751 : 0 : event->hw.idx = UNCORE_PMC_IDX_FREERUNNING;
752 : : /*
753 : : * The free running counter event and free running counter
754 : : * are always 1:1 mapped.
755 : : * The free running counter is always active.
756 : : * Assign the free running counter here.
757 : : */
758 : 0 : event->hw.event_base = uncore_freerunning_counter(box, event);
759 : : } else {
760 : 0 : hwc->config = event->attr.config &
761 : 0 : (pmu->type->event_mask | ((u64)pmu->type->event_mask_ext << 32));
762 [ # # ]: 0 : if (pmu->type->ops->hw_config) {
763 : 0 : ret = pmu->type->ops->hw_config(box, event);
764 [ # # ]: 0 : if (ret)
765 : : return ret;
766 : : }
767 : : }
768 : :
769 [ # # ]: 0 : if (event->group_leader != event)
770 : 0 : ret = uncore_validate_group(pmu, event);
771 : : else
772 : : ret = 0;
773 : :
774 : : return ret;
775 : : }
776 : :
777 : 0 : static void uncore_pmu_enable(struct pmu *pmu)
778 : : {
779 : 0 : struct intel_uncore_pmu *uncore_pmu;
780 : 0 : struct intel_uncore_box *box;
781 : :
782 : 0 : uncore_pmu = container_of(pmu, struct intel_uncore_pmu, pmu);
783 [ # # ]: 0 : if (!uncore_pmu)
784 : : return;
785 : :
786 [ # # ]: 0 : box = uncore_pmu_to_box(uncore_pmu, smp_processor_id());
787 [ # # ]: 0 : if (!box)
788 : : return;
789 : :
790 [ # # ]: 0 : if (uncore_pmu->type->ops->enable_box)
791 : 0 : uncore_pmu->type->ops->enable_box(box);
792 : : }
793 : :
794 : 0 : static void uncore_pmu_disable(struct pmu *pmu)
795 : : {
796 : 0 : struct intel_uncore_pmu *uncore_pmu;
797 : 0 : struct intel_uncore_box *box;
798 : :
799 : 0 : uncore_pmu = container_of(pmu, struct intel_uncore_pmu, pmu);
800 [ # # ]: 0 : if (!uncore_pmu)
801 : : return;
802 : :
803 [ # # ]: 0 : box = uncore_pmu_to_box(uncore_pmu, smp_processor_id());
804 [ # # ]: 0 : if (!box)
805 : : return;
806 : :
807 [ # # ]: 0 : if (uncore_pmu->type->ops->disable_box)
808 : 0 : uncore_pmu->type->ops->disable_box(box);
809 : : }
810 : :
811 : 0 : static ssize_t uncore_get_attr_cpumask(struct device *dev,
812 : : struct device_attribute *attr, char *buf)
813 : : {
814 : 0 : return cpumap_print_to_pagebuf(true, buf, &uncore_cpu_mask);
815 : : }
816 : :
817 : : static DEVICE_ATTR(cpumask, S_IRUGO, uncore_get_attr_cpumask, NULL);
818 : :
819 : : static struct attribute *uncore_pmu_attrs[] = {
820 : : &dev_attr_cpumask.attr,
821 : : NULL,
822 : : };
823 : :
824 : : static const struct attribute_group uncore_pmu_attr_group = {
825 : : .attrs = uncore_pmu_attrs,
826 : : };
827 : :
828 : 0 : static int uncore_pmu_register(struct intel_uncore_pmu *pmu)
829 : : {
830 : 0 : int ret;
831 : :
832 [ # # ]: 0 : if (!pmu->type->pmu) {
833 : 0 : pmu->pmu = (struct pmu) {
834 : 0 : .attr_groups = pmu->type->attr_groups,
835 : : .task_ctx_nr = perf_invalid_context,
836 : : .pmu_enable = uncore_pmu_enable,
837 : : .pmu_disable = uncore_pmu_disable,
838 : : .event_init = uncore_pmu_event_init,
839 : : .add = uncore_pmu_event_add,
840 : : .del = uncore_pmu_event_del,
841 : : .start = uncore_pmu_event_start,
842 : : .stop = uncore_pmu_event_stop,
843 : : .read = uncore_pmu_event_read,
844 : : .module = THIS_MODULE,
845 : : .capabilities = PERF_PMU_CAP_NO_EXCLUDE,
846 : : };
847 : : } else {
848 : 0 : pmu->pmu = *pmu->type->pmu;
849 : 0 : pmu->pmu.attr_groups = pmu->type->attr_groups;
850 : : }
851 : :
852 [ # # ]: 0 : if (pmu->type->num_boxes == 1) {
853 [ # # ]: 0 : if (strlen(pmu->type->name) > 0)
854 : 0 : sprintf(pmu->name, "uncore_%s", pmu->type->name);
855 : : else
856 : 0 : sprintf(pmu->name, "uncore");
857 : : } else {
858 : 0 : sprintf(pmu->name, "uncore_%s_%d", pmu->type->name,
859 : : pmu->pmu_idx);
860 : : }
861 : :
862 : 0 : ret = perf_pmu_register(&pmu->pmu, pmu->name, -1);
863 [ # # ]: 0 : if (!ret)
864 : 0 : pmu->registered = true;
865 : 0 : return ret;
866 : : }
867 : :
868 : 0 : static void uncore_pmu_unregister(struct intel_uncore_pmu *pmu)
869 : : {
870 : 0 : if (!pmu->registered)
871 : : return;
872 : 0 : perf_pmu_unregister(&pmu->pmu);
873 : 0 : pmu->registered = false;
874 : : }
875 : :
876 : : static void uncore_free_boxes(struct intel_uncore_pmu *pmu)
877 : : {
878 : : int die;
879 : :
880 : : for (die = 0; die < max_dies; die++)
881 : : kfree(pmu->boxes[die]);
882 : : kfree(pmu->boxes);
883 : : }
884 : :
885 : 0 : static void uncore_type_exit(struct intel_uncore_type *type)
886 : : {
887 : 0 : struct intel_uncore_pmu *pmu = type->pmus;
888 : 0 : int i;
889 : :
890 [ # # ]: 0 : if (pmu) {
891 [ # # ]: 0 : for (i = 0; i < type->num_boxes; i++, pmu++) {
892 [ # # ]: 0 : uncore_pmu_unregister(pmu);
893 : 0 : uncore_free_boxes(pmu);
894 : : }
895 : 0 : kfree(type->pmus);
896 : 0 : type->pmus = NULL;
897 : : }
898 : 0 : kfree(type->events_group);
899 : 0 : type->events_group = NULL;
900 : 0 : }
901 : :
902 : 0 : static void uncore_types_exit(struct intel_uncore_type **types)
903 : : {
904 [ # # # # : 0 : for (; *types; types++)
# # # # #
# # # # #
# # ]
905 : 0 : uncore_type_exit(*types);
906 : : }
907 : :
908 : 0 : static int __init uncore_type_init(struct intel_uncore_type *type, bool setid)
909 : : {
910 : 0 : struct intel_uncore_pmu *pmus;
911 : 0 : size_t size;
912 : 0 : int i, j;
913 : :
914 : 0 : pmus = kcalloc(type->num_boxes, sizeof(*pmus), GFP_KERNEL);
915 [ # # ]: 0 : if (!pmus)
916 : : return -ENOMEM;
917 : :
918 : 0 : size = max_dies * sizeof(struct intel_uncore_box *);
919 : :
920 [ # # ]: 0 : for (i = 0; i < type->num_boxes; i++) {
921 [ # # ]: 0 : pmus[i].func_id = setid ? i : -1;
922 : 0 : pmus[i].pmu_idx = i;
923 : 0 : pmus[i].type = type;
924 : 0 : pmus[i].boxes = kzalloc(size, GFP_KERNEL);
925 [ # # ]: 0 : if (!pmus[i].boxes)
926 : 0 : goto err;
927 : : }
928 : :
929 : 0 : type->pmus = pmus;
930 : 0 : type->unconstrainted = (struct event_constraint)
931 : 0 : __EVENT_CONSTRAINT(0, (1ULL << type->num_counters) - 1,
932 : : 0, type->num_counters, 0, 0);
933 : :
934 [ # # ]: 0 : if (type->event_descs) {
935 : : struct {
936 : : struct attribute_group group;
937 : : struct attribute *attrs[];
938 : : } *attr_group;
939 [ # # ]: 0 : for (i = 0; type->event_descs[i].attr.attr.name; i++);
940 : :
941 [ # # ]: 0 : attr_group = kzalloc(struct_size(attr_group, attrs, i + 1),
942 : : GFP_KERNEL);
943 [ # # ]: 0 : if (!attr_group)
944 : 0 : goto err;
945 : :
946 : 0 : attr_group->group.name = "events";
947 : 0 : attr_group->group.attrs = attr_group->attrs;
948 : :
949 [ # # ]: 0 : for (j = 0; j < i; j++)
950 : 0 : attr_group->attrs[j] = &type->event_descs[j].attr.attr;
951 : :
952 : 0 : type->events_group = &attr_group->group;
953 : : }
954 : :
955 : 0 : type->pmu_group = &uncore_pmu_attr_group;
956 : :
957 : 0 : return 0;
958 : :
959 : : err:
960 [ # # ]: 0 : for (i = 0; i < type->num_boxes; i++)
961 : 0 : kfree(pmus[i].boxes);
962 : 0 : kfree(pmus);
963 : :
964 : 0 : return -ENOMEM;
965 : : }
966 : :
967 : : static int __init
968 : 0 : uncore_types_init(struct intel_uncore_type **types, bool setid)
969 : : {
970 : 0 : int ret;
971 : :
972 [ # # ]: 0 : for (; *types; types++) {
973 : 0 : ret = uncore_type_init(*types, setid);
974 [ # # ]: 0 : if (ret)
975 : 0 : return ret;
976 : : }
977 : : return 0;
978 : : }
979 : :
980 : : /*
981 : : * add a pci uncore device
982 : : */
983 : 0 : static int uncore_pci_probe(struct pci_dev *pdev, const struct pci_device_id *id)
984 : : {
985 : 0 : struct intel_uncore_type *type;
986 : 0 : struct intel_uncore_pmu *pmu = NULL;
987 : 0 : struct intel_uncore_box *box;
988 : 0 : int phys_id, die, ret;
989 : :
990 : 0 : phys_id = uncore_pcibus_to_physid(pdev->bus);
991 [ # # ]: 0 : if (phys_id < 0)
992 : : return -ENODEV;
993 : :
994 [ # # ]: 0 : die = (topology_max_die_per_package() > 1) ? phys_id :
995 : 0 : topology_phys_to_logical_pkg(phys_id);
996 [ # # ]: 0 : if (die < 0)
997 : : return -EINVAL;
998 : :
999 [ # # ]: 0 : if (UNCORE_PCI_DEV_TYPE(id->driver_data) == UNCORE_EXTRA_PCI_DEV) {
1000 : 0 : int idx = UNCORE_PCI_DEV_IDX(id->driver_data);
1001 : :
1002 : 0 : uncore_extra_pci_dev[die].dev[idx] = pdev;
1003 : 0 : pci_set_drvdata(pdev, NULL);
1004 : 0 : return 0;
1005 : : }
1006 : :
1007 : 0 : type = uncore_pci_uncores[UNCORE_PCI_DEV_TYPE(id->driver_data)];
1008 : :
1009 : : /*
1010 : : * Some platforms, e.g. Knights Landing, use a common PCI device ID
1011 : : * for multiple instances of an uncore PMU device type. We should check
1012 : : * PCI slot and func to indicate the uncore box.
1013 : : */
1014 [ # # ]: 0 : if (id->driver_data & ~0xffff) {
1015 : 0 : struct pci_driver *pci_drv = pdev->driver;
1016 : 0 : const struct pci_device_id *ids = pci_drv->id_table;
1017 : 0 : unsigned int devfn;
1018 : :
1019 [ # # # # ]: 0 : while (ids && ids->vendor) {
1020 [ # # ]: 0 : if ((ids->vendor == pdev->vendor) &&
1021 [ # # ]: 0 : (ids->device == pdev->device)) {
1022 : 0 : devfn = PCI_DEVFN(UNCORE_PCI_DEV_DEV(ids->driver_data),
1023 : : UNCORE_PCI_DEV_FUNC(ids->driver_data));
1024 [ # # ]: 0 : if (devfn == pdev->devfn) {
1025 : 0 : pmu = &type->pmus[UNCORE_PCI_DEV_IDX(ids->driver_data)];
1026 : 0 : break;
1027 : : }
1028 : : }
1029 : 0 : ids++;
1030 : : }
1031 [ # # ]: 0 : if (pmu == NULL)
1032 : : return -ENODEV;
1033 : : } else {
1034 : : /*
1035 : : * for performance monitoring unit with multiple boxes,
1036 : : * each box has a different function id.
1037 : : */
1038 : 0 : pmu = &type->pmus[UNCORE_PCI_DEV_IDX(id->driver_data)];
1039 : : }
1040 : :
1041 [ # # # # ]: 0 : if (WARN_ON_ONCE(pmu->boxes[die] != NULL))
1042 : : return -EINVAL;
1043 : :
1044 : 0 : box = uncore_alloc_box(type, NUMA_NO_NODE);
1045 [ # # ]: 0 : if (!box)
1046 : : return -ENOMEM;
1047 : :
1048 [ # # ]: 0 : if (pmu->func_id < 0)
1049 : 0 : pmu->func_id = pdev->devfn;
1050 : : else
1051 [ # # ]: 0 : WARN_ON_ONCE(pmu->func_id != pdev->devfn);
1052 : :
1053 : 0 : atomic_inc(&box->refcnt);
1054 : 0 : box->pci_phys_id = phys_id;
1055 : 0 : box->dieid = die;
1056 : 0 : box->pci_dev = pdev;
1057 : 0 : box->pmu = pmu;
1058 : 0 : uncore_box_init(box);
1059 : 0 : pci_set_drvdata(pdev, box);
1060 : :
1061 : 0 : pmu->boxes[die] = box;
1062 [ # # ]: 0 : if (atomic_inc_return(&pmu->activeboxes) > 1)
1063 : : return 0;
1064 : :
1065 : : /* First active box registers the pmu */
1066 : 0 : ret = uncore_pmu_register(pmu);
1067 [ # # ]: 0 : if (ret) {
1068 : 0 : pci_set_drvdata(pdev, NULL);
1069 : 0 : pmu->boxes[die] = NULL;
1070 : 0 : uncore_box_exit(box);
1071 : 0 : kfree(box);
1072 : : }
1073 : : return ret;
1074 : : }
1075 : :
1076 : 0 : static void uncore_pci_remove(struct pci_dev *pdev)
1077 : : {
1078 : 0 : struct intel_uncore_box *box;
1079 : 0 : struct intel_uncore_pmu *pmu;
1080 : 0 : int i, phys_id, die;
1081 : :
1082 : 0 : phys_id = uncore_pcibus_to_physid(pdev->bus);
1083 : :
1084 [ # # ]: 0 : box = pci_get_drvdata(pdev);
1085 [ # # ]: 0 : if (!box) {
1086 [ # # ]: 0 : die = (topology_max_die_per_package() > 1) ? phys_id :
1087 : 0 : topology_phys_to_logical_pkg(phys_id);
1088 [ # # ]: 0 : for (i = 0; i < UNCORE_EXTRA_PCI_DEV_MAX; i++) {
1089 [ # # ]: 0 : if (uncore_extra_pci_dev[die].dev[i] == pdev) {
1090 : 0 : uncore_extra_pci_dev[die].dev[i] = NULL;
1091 : 0 : break;
1092 : : }
1093 : : }
1094 [ # # ]: 0 : WARN_ON_ONCE(i >= UNCORE_EXTRA_PCI_DEV_MAX);
1095 : : return;
1096 : : }
1097 : :
1098 : 0 : pmu = box->pmu;
1099 [ # # # # ]: 0 : if (WARN_ON_ONCE(phys_id != box->pci_phys_id))
1100 : : return;
1101 : :
1102 : 0 : pci_set_drvdata(pdev, NULL);
1103 : 0 : pmu->boxes[box->dieid] = NULL;
1104 [ # # ]: 0 : if (atomic_dec_return(&pmu->activeboxes) == 0)
1105 [ # # ]: 0 : uncore_pmu_unregister(pmu);
1106 : 0 : uncore_box_exit(box);
1107 : 0 : kfree(box);
1108 : : }
1109 : :
1110 : 0 : static int __init uncore_pci_init(void)
1111 : : {
1112 : 0 : size_t size;
1113 : 0 : int ret;
1114 : :
1115 : 0 : size = max_dies * sizeof(struct pci_extra_dev);
1116 : 0 : uncore_extra_pci_dev = kzalloc(size, GFP_KERNEL);
1117 [ # # ]: 0 : if (!uncore_extra_pci_dev) {
1118 : 0 : ret = -ENOMEM;
1119 : 0 : goto err;
1120 : : }
1121 : :
1122 : 0 : ret = uncore_types_init(uncore_pci_uncores, false);
1123 [ # # ]: 0 : if (ret)
1124 : 0 : goto errtype;
1125 : :
1126 : 0 : uncore_pci_driver->probe = uncore_pci_probe;
1127 : 0 : uncore_pci_driver->remove = uncore_pci_remove;
1128 : :
1129 : 0 : ret = pci_register_driver(uncore_pci_driver);
1130 [ # # ]: 0 : if (ret)
1131 : 0 : goto errtype;
1132 : :
1133 : 0 : pcidrv_registered = true;
1134 : 0 : return 0;
1135 : :
1136 : 0 : errtype:
1137 : 0 : uncore_types_exit(uncore_pci_uncores);
1138 : 0 : kfree(uncore_extra_pci_dev);
1139 : 0 : uncore_extra_pci_dev = NULL;
1140 : 0 : uncore_free_pcibus_map();
1141 : 0 : err:
1142 : 0 : uncore_pci_uncores = empty_uncore;
1143 : 0 : return ret;
1144 : : }
1145 : :
1146 : 0 : static void uncore_pci_exit(void)
1147 : : {
1148 [ # # ]: 0 : if (pcidrv_registered) {
1149 : 0 : pcidrv_registered = false;
1150 : 0 : pci_unregister_driver(uncore_pci_driver);
1151 : 0 : uncore_types_exit(uncore_pci_uncores);
1152 : 0 : kfree(uncore_extra_pci_dev);
1153 : 0 : uncore_free_pcibus_map();
1154 : : }
1155 : 0 : }
1156 : :
1157 : : static void uncore_change_type_ctx(struct intel_uncore_type *type, int old_cpu,
1158 : : int new_cpu)
1159 : : {
1160 : : struct intel_uncore_pmu *pmu = type->pmus;
1161 : : struct intel_uncore_box *box;
1162 : : int i, die;
1163 : :
1164 : : die = topology_logical_die_id(old_cpu < 0 ? new_cpu : old_cpu);
1165 : : for (i = 0; i < type->num_boxes; i++, pmu++) {
1166 : : box = pmu->boxes[die];
1167 : : if (!box)
1168 : : continue;
1169 : :
1170 : : if (old_cpu < 0) {
1171 : : WARN_ON_ONCE(box->cpu != -1);
1172 : : box->cpu = new_cpu;
1173 : : continue;
1174 : : }
1175 : :
1176 : : WARN_ON_ONCE(box->cpu != old_cpu);
1177 : : box->cpu = -1;
1178 : : if (new_cpu < 0)
1179 : : continue;
1180 : :
1181 : : uncore_pmu_cancel_hrtimer(box);
1182 : : perf_pmu_migrate_context(&pmu->pmu, old_cpu, new_cpu);
1183 : : box->cpu = new_cpu;
1184 : : }
1185 : : }
1186 : :
1187 : 0 : static void uncore_change_context(struct intel_uncore_type **uncores,
1188 : : int old_cpu, int new_cpu)
1189 : : {
1190 [ # # # # : 0 : for (; *uncores; uncores++)
# # # # #
# # # ]
1191 : 0 : uncore_change_type_ctx(*uncores, old_cpu, new_cpu);
1192 : : }
1193 : :
1194 : 0 : static void uncore_box_unref(struct intel_uncore_type **types, int id)
1195 : : {
1196 : 0 : struct intel_uncore_type *type;
1197 : 0 : struct intel_uncore_pmu *pmu;
1198 : 0 : struct intel_uncore_box *box;
1199 : 0 : int i;
1200 : :
1201 [ # # ]: 0 : for (; *types; types++) {
1202 : 0 : type = *types;
1203 : 0 : pmu = type->pmus;
1204 [ # # ]: 0 : for (i = 0; i < type->num_boxes; i++, pmu++) {
1205 : 0 : box = pmu->boxes[id];
1206 [ # # # # ]: 0 : if (box && atomic_dec_return(&box->refcnt) == 0)
1207 : 0 : uncore_box_exit(box);
1208 : : }
1209 : : }
1210 : 0 : }
1211 : :
1212 : 0 : static int uncore_event_cpu_offline(unsigned int cpu)
1213 : : {
1214 : 0 : int die, target;
1215 : :
1216 : : /* Check if exiting cpu is used for collecting uncore events */
1217 [ # # ]: 0 : if (!cpumask_test_and_clear_cpu(cpu, &uncore_cpu_mask))
1218 : 0 : goto unref;
1219 : : /* Find a new cpu to collect uncore events */
1220 : 0 : target = cpumask_any_but(topology_die_cpumask(cpu), cpu);
1221 : :
1222 : : /* Migrate uncore events to the new target */
1223 [ # # ]: 0 : if (target < nr_cpu_ids)
1224 : 0 : cpumask_set_cpu(target, &uncore_cpu_mask);
1225 : : else
1226 : : target = -1;
1227 : :
1228 : 0 : uncore_change_context(uncore_msr_uncores, cpu, target);
1229 : 0 : uncore_change_context(uncore_mmio_uncores, cpu, target);
1230 : 0 : uncore_change_context(uncore_pci_uncores, cpu, target);
1231 : :
1232 : 0 : unref:
1233 : : /* Clear the references */
1234 : 0 : die = topology_logical_die_id(cpu);
1235 : 0 : uncore_box_unref(uncore_msr_uncores, die);
1236 : 0 : uncore_box_unref(uncore_mmio_uncores, die);
1237 : 0 : return 0;
1238 : : }
1239 : :
1240 : 0 : static int allocate_boxes(struct intel_uncore_type **types,
1241 : : unsigned int die, unsigned int cpu)
1242 : : {
1243 : 0 : struct intel_uncore_box *box, *tmp;
1244 : 0 : struct intel_uncore_type *type;
1245 : 0 : struct intel_uncore_pmu *pmu;
1246 : 0 : LIST_HEAD(allocated);
1247 : 0 : int i;
1248 : :
1249 : : /* Try to allocate all required boxes */
1250 [ # # ]: 0 : for (; *types; types++) {
1251 : 0 : type = *types;
1252 : 0 : pmu = type->pmus;
1253 [ # # ]: 0 : for (i = 0; i < type->num_boxes; i++, pmu++) {
1254 [ # # ]: 0 : if (pmu->boxes[die])
1255 : 0 : continue;
1256 : 0 : box = uncore_alloc_box(type, cpu_to_node(cpu));
1257 [ # # ]: 0 : if (!box)
1258 : 0 : goto cleanup;
1259 : 0 : box->pmu = pmu;
1260 : 0 : box->dieid = die;
1261 : 0 : list_add(&box->active_list, &allocated);
1262 : : }
1263 : : }
1264 : : /* Install them in the pmus */
1265 [ # # ]: 0 : list_for_each_entry_safe(box, tmp, &allocated, active_list) {
1266 : 0 : list_del_init(&box->active_list);
1267 : 0 : box->pmu->boxes[die] = box;
1268 : : }
1269 : : return 0;
1270 : :
1271 : : cleanup:
1272 [ # # ]: 0 : list_for_each_entry_safe(box, tmp, &allocated, active_list) {
1273 : 0 : list_del_init(&box->active_list);
1274 : 0 : kfree(box);
1275 : : }
1276 : : return -ENOMEM;
1277 : : }
1278 : :
1279 : 0 : static int uncore_box_ref(struct intel_uncore_type **types,
1280 : : int id, unsigned int cpu)
1281 : : {
1282 : 0 : struct intel_uncore_type *type;
1283 : 0 : struct intel_uncore_pmu *pmu;
1284 : 0 : struct intel_uncore_box *box;
1285 : 0 : int i, ret;
1286 : :
1287 : 0 : ret = allocate_boxes(types, id, cpu);
1288 [ # # ]: 0 : if (ret)
1289 : : return ret;
1290 : :
1291 [ # # ]: 0 : for (; *types; types++) {
1292 : 0 : type = *types;
1293 : 0 : pmu = type->pmus;
1294 [ # # ]: 0 : for (i = 0; i < type->num_boxes; i++, pmu++) {
1295 : 0 : box = pmu->boxes[id];
1296 [ # # # # ]: 0 : if (box && atomic_inc_return(&box->refcnt) == 1)
1297 : 0 : uncore_box_init(box);
1298 : : }
1299 : : }
1300 : : return 0;
1301 : : }
1302 : :
1303 : 0 : static int uncore_event_cpu_online(unsigned int cpu)
1304 : : {
1305 : 0 : int die, target, msr_ret, mmio_ret;
1306 : :
1307 : 0 : die = topology_logical_die_id(cpu);
1308 : 0 : msr_ret = uncore_box_ref(uncore_msr_uncores, die, cpu);
1309 : 0 : mmio_ret = uncore_box_ref(uncore_mmio_uncores, die, cpu);
1310 [ # # ]: 0 : if (msr_ret && mmio_ret)
1311 : : return -ENOMEM;
1312 : :
1313 : : /*
1314 : : * Check if there is an online cpu in the package
1315 : : * which collects uncore events already.
1316 : : */
1317 : 0 : target = cpumask_any_and(&uncore_cpu_mask, topology_die_cpumask(cpu));
1318 [ # # ]: 0 : if (target < nr_cpu_ids)
1319 : : return 0;
1320 : :
1321 : 0 : cpumask_set_cpu(cpu, &uncore_cpu_mask);
1322 : :
1323 [ # # ]: 0 : if (!msr_ret)
1324 : 0 : uncore_change_context(uncore_msr_uncores, -1, cpu);
1325 [ # # ]: 0 : if (!mmio_ret)
1326 : 0 : uncore_change_context(uncore_mmio_uncores, -1, cpu);
1327 : 0 : uncore_change_context(uncore_pci_uncores, -1, cpu);
1328 : : return 0;
1329 : : }
1330 : :
1331 : : static int __init type_pmu_register(struct intel_uncore_type *type)
1332 : : {
1333 : : int i, ret;
1334 : :
1335 : : for (i = 0; i < type->num_boxes; i++) {
1336 : : ret = uncore_pmu_register(&type->pmus[i]);
1337 : : if (ret)
1338 : : return ret;
1339 : : }
1340 : : return 0;
1341 : : }
1342 : :
1343 : 0 : static int __init uncore_msr_pmus_register(void)
1344 : : {
1345 : 0 : struct intel_uncore_type **types = uncore_msr_uncores;
1346 : 0 : int ret;
1347 : :
1348 [ # # ]: 0 : for (; *types; types++) {
1349 : 0 : ret = type_pmu_register(*types);
1350 [ # # ]: 0 : if (ret)
1351 : 0 : return ret;
1352 : : }
1353 : : return 0;
1354 : : }
1355 : :
1356 : 0 : static int __init uncore_cpu_init(void)
1357 : : {
1358 : 0 : int ret;
1359 : :
1360 : 0 : ret = uncore_types_init(uncore_msr_uncores, true);
1361 [ # # ]: 0 : if (ret)
1362 : 0 : goto err;
1363 : :
1364 : 0 : ret = uncore_msr_pmus_register();
1365 [ # # ]: 0 : if (ret)
1366 : 0 : goto err;
1367 : : return 0;
1368 : 0 : err:
1369 : 0 : uncore_types_exit(uncore_msr_uncores);
1370 : 0 : uncore_msr_uncores = empty_uncore;
1371 : 0 : return ret;
1372 : : }
1373 : :
1374 : 0 : static int __init uncore_mmio_init(void)
1375 : : {
1376 : 0 : struct intel_uncore_type **types = uncore_mmio_uncores;
1377 : 0 : int ret;
1378 : :
1379 : 0 : ret = uncore_types_init(types, true);
1380 [ # # ]: 0 : if (ret)
1381 : 0 : goto err;
1382 : :
1383 [ # # ]: 0 : for (; *types; types++) {
1384 : 0 : ret = type_pmu_register(*types);
1385 [ # # ]: 0 : if (ret)
1386 : 0 : goto err;
1387 : : }
1388 : : return 0;
1389 : 0 : err:
1390 : 0 : uncore_types_exit(uncore_mmio_uncores);
1391 : 0 : uncore_mmio_uncores = empty_uncore;
1392 : 0 : return ret;
1393 : : }
1394 : :
1395 : :
1396 : : #define X86_UNCORE_MODEL_MATCH(model, init) \
1397 : : { X86_VENDOR_INTEL, 6, model, X86_FEATURE_ANY, (unsigned long)&init }
1398 : :
1399 : : struct intel_uncore_init_fun {
1400 : : void (*cpu_init)(void);
1401 : : int (*pci_init)(void);
1402 : : void (*mmio_init)(void);
1403 : : };
1404 : :
1405 : : static const struct intel_uncore_init_fun nhm_uncore_init __initconst = {
1406 : : .cpu_init = nhm_uncore_cpu_init,
1407 : : };
1408 : :
1409 : : static const struct intel_uncore_init_fun snb_uncore_init __initconst = {
1410 : : .cpu_init = snb_uncore_cpu_init,
1411 : : .pci_init = snb_uncore_pci_init,
1412 : : };
1413 : :
1414 : : static const struct intel_uncore_init_fun ivb_uncore_init __initconst = {
1415 : : .cpu_init = snb_uncore_cpu_init,
1416 : : .pci_init = ivb_uncore_pci_init,
1417 : : };
1418 : :
1419 : : static const struct intel_uncore_init_fun hsw_uncore_init __initconst = {
1420 : : .cpu_init = snb_uncore_cpu_init,
1421 : : .pci_init = hsw_uncore_pci_init,
1422 : : };
1423 : :
1424 : : static const struct intel_uncore_init_fun bdw_uncore_init __initconst = {
1425 : : .cpu_init = snb_uncore_cpu_init,
1426 : : .pci_init = bdw_uncore_pci_init,
1427 : : };
1428 : :
1429 : : static const struct intel_uncore_init_fun snbep_uncore_init __initconst = {
1430 : : .cpu_init = snbep_uncore_cpu_init,
1431 : : .pci_init = snbep_uncore_pci_init,
1432 : : };
1433 : :
1434 : : static const struct intel_uncore_init_fun nhmex_uncore_init __initconst = {
1435 : : .cpu_init = nhmex_uncore_cpu_init,
1436 : : };
1437 : :
1438 : : static const struct intel_uncore_init_fun ivbep_uncore_init __initconst = {
1439 : : .cpu_init = ivbep_uncore_cpu_init,
1440 : : .pci_init = ivbep_uncore_pci_init,
1441 : : };
1442 : :
1443 : : static const struct intel_uncore_init_fun hswep_uncore_init __initconst = {
1444 : : .cpu_init = hswep_uncore_cpu_init,
1445 : : .pci_init = hswep_uncore_pci_init,
1446 : : };
1447 : :
1448 : : static const struct intel_uncore_init_fun bdx_uncore_init __initconst = {
1449 : : .cpu_init = bdx_uncore_cpu_init,
1450 : : .pci_init = bdx_uncore_pci_init,
1451 : : };
1452 : :
1453 : : static const struct intel_uncore_init_fun knl_uncore_init __initconst = {
1454 : : .cpu_init = knl_uncore_cpu_init,
1455 : : .pci_init = knl_uncore_pci_init,
1456 : : };
1457 : :
1458 : : static const struct intel_uncore_init_fun skl_uncore_init __initconst = {
1459 : : .cpu_init = skl_uncore_cpu_init,
1460 : : .pci_init = skl_uncore_pci_init,
1461 : : };
1462 : :
1463 : : static const struct intel_uncore_init_fun skx_uncore_init __initconst = {
1464 : : .cpu_init = skx_uncore_cpu_init,
1465 : : .pci_init = skx_uncore_pci_init,
1466 : : };
1467 : :
1468 : : static const struct intel_uncore_init_fun icl_uncore_init __initconst = {
1469 : : .cpu_init = icl_uncore_cpu_init,
1470 : : .pci_init = skl_uncore_pci_init,
1471 : : };
1472 : :
1473 : : static const struct intel_uncore_init_fun snr_uncore_init __initconst = {
1474 : : .cpu_init = snr_uncore_cpu_init,
1475 : : .pci_init = snr_uncore_pci_init,
1476 : : .mmio_init = snr_uncore_mmio_init,
1477 : : };
1478 : :
1479 : : static const struct x86_cpu_id intel_uncore_match[] __initconst = {
1480 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_NEHALEM_EP, nhm_uncore_init),
1481 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_NEHALEM, nhm_uncore_init),
1482 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_WESTMERE, nhm_uncore_init),
1483 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_WESTMERE_EP, nhm_uncore_init),
1484 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_SANDYBRIDGE, snb_uncore_init),
1485 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_IVYBRIDGE, ivb_uncore_init),
1486 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_HASWELL, hsw_uncore_init),
1487 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_HASWELL_L, hsw_uncore_init),
1488 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_HASWELL_G, hsw_uncore_init),
1489 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_BROADWELL, bdw_uncore_init),
1490 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_BROADWELL_G, bdw_uncore_init),
1491 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_SANDYBRIDGE_X, snbep_uncore_init),
1492 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_NEHALEM_EX, nhmex_uncore_init),
1493 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_WESTMERE_EX, nhmex_uncore_init),
1494 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_IVYBRIDGE_X, ivbep_uncore_init),
1495 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_HASWELL_X, hswep_uncore_init),
1496 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_BROADWELL_X, bdx_uncore_init),
1497 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_BROADWELL_D, bdx_uncore_init),
1498 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_XEON_PHI_KNL, knl_uncore_init),
1499 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_XEON_PHI_KNM, knl_uncore_init),
1500 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_SKYLAKE, skl_uncore_init),
1501 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_SKYLAKE_L, skl_uncore_init),
1502 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_SKYLAKE_X, skx_uncore_init),
1503 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_KABYLAKE_L, skl_uncore_init),
1504 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_KABYLAKE, skl_uncore_init),
1505 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_ICELAKE_L, icl_uncore_init),
1506 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_ICELAKE_NNPI, icl_uncore_init),
1507 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_ICELAKE, icl_uncore_init),
1508 : : X86_UNCORE_MODEL_MATCH(INTEL_FAM6_ATOM_TREMONT_D, snr_uncore_init),
1509 : : {},
1510 : : };
1511 : :
1512 : : MODULE_DEVICE_TABLE(x86cpu, intel_uncore_match);
1513 : :
1514 : 3 : static int __init intel_uncore_init(void)
1515 : : {
1516 : 3 : const struct x86_cpu_id *id;
1517 : 3 : struct intel_uncore_init_fun *uncore_init;
1518 : 3 : int pret = 0, cret = 0, mret = 0, ret;
1519 : :
1520 : 3 : id = x86_match_cpu(intel_uncore_match);
1521 [ - + ]: 3 : if (!id)
1522 : : return -ENODEV;
1523 : :
1524 [ # # ]: 0 : if (boot_cpu_has(X86_FEATURE_HYPERVISOR))
1525 : : return -ENODEV;
1526 : :
1527 [ # # ]: 0 : max_dies = topology_max_packages() * topology_max_die_per_package();
1528 : :
1529 : 0 : uncore_init = (struct intel_uncore_init_fun *)id->driver_data;
1530 [ # # ]: 0 : if (uncore_init->pci_init) {
1531 : 0 : pret = uncore_init->pci_init();
1532 [ # # ]: 0 : if (!pret)
1533 : 0 : pret = uncore_pci_init();
1534 : : }
1535 : :
1536 [ # # ]: 0 : if (uncore_init->cpu_init) {
1537 : 0 : uncore_init->cpu_init();
1538 : 0 : cret = uncore_cpu_init();
1539 : : }
1540 : :
1541 [ # # ]: 0 : if (uncore_init->mmio_init) {
1542 : 0 : uncore_init->mmio_init();
1543 : 0 : mret = uncore_mmio_init();
1544 : : }
1545 : :
1546 [ # # # # ]: 0 : if (cret && pret && mret)
1547 : : return -ENODEV;
1548 : :
1549 : : /* Install hotplug callbacks to setup the targets for each package */
1550 : 0 : ret = cpuhp_setup_state(CPUHP_AP_PERF_X86_UNCORE_ONLINE,
1551 : : "perf/x86/intel/uncore:online",
1552 : : uncore_event_cpu_online,
1553 : : uncore_event_cpu_offline);
1554 [ # # ]: 0 : if (ret)
1555 : 0 : goto err;
1556 : : return 0;
1557 : :
1558 : : err:
1559 : 0 : uncore_types_exit(uncore_msr_uncores);
1560 : 0 : uncore_types_exit(uncore_mmio_uncores);
1561 : 0 : uncore_pci_exit();
1562 : 0 : return ret;
1563 : : }
1564 : : module_init(intel_uncore_init);
1565 : :
1566 : 0 : static void __exit intel_uncore_exit(void)
1567 : : {
1568 : 0 : cpuhp_remove_state(CPUHP_AP_PERF_X86_UNCORE_ONLINE);
1569 : 0 : uncore_types_exit(uncore_msr_uncores);
1570 : 0 : uncore_types_exit(uncore_mmio_uncores);
1571 : 0 : uncore_pci_exit();
1572 : 0 : }
1573 : : module_exit(intel_uncore_exit);
|