Branch data Line data Source code
1 : : // SPDX-License-Identifier: GPL-2.0-only
2 : : /*
3 : : * Copyright (C) 2007-2010 Advanced Micro Devices, Inc.
4 : : * Author: Joerg Roedel <jroedel@suse.de>
5 : : * Leo Duran <leo.duran@amd.com>
6 : : */
7 : :
8 : : #define pr_fmt(fmt) "AMD-Vi: " fmt
9 : : #define dev_fmt(fmt) pr_fmt(fmt)
10 : :
11 : : #include <linux/pci.h>
12 : : #include <linux/acpi.h>
13 : : #include <linux/list.h>
14 : : #include <linux/bitmap.h>
15 : : #include <linux/slab.h>
16 : : #include <linux/syscore_ops.h>
17 : : #include <linux/interrupt.h>
18 : : #include <linux/msi.h>
19 : : #include <linux/amd-iommu.h>
20 : : #include <linux/export.h>
21 : : #include <linux/iommu.h>
22 : : #include <linux/kmemleak.h>
23 : : #include <linux/mem_encrypt.h>
24 : : #include <asm/pci-direct.h>
25 : : #include <asm/iommu.h>
26 : : #include <asm/apic.h>
27 : : #include <asm/msidef.h>
28 : : #include <asm/gart.h>
29 : : #include <asm/x86_init.h>
30 : : #include <asm/iommu_table.h>
31 : : #include <asm/io_apic.h>
32 : : #include <asm/irq_remapping.h>
33 : :
34 : : #include <linux/crash_dump.h>
35 : : #include "amd_iommu.h"
36 : : #include "amd_iommu_proto.h"
37 : : #include "amd_iommu_types.h"
38 : : #include "irq_remapping.h"
39 : :
40 : : /*
41 : : * definitions for the ACPI scanning code
42 : : */
43 : : #define IVRS_HEADER_LENGTH 48
44 : :
45 : : #define ACPI_IVHD_TYPE_MAX_SUPPORTED 0x40
46 : : #define ACPI_IVMD_TYPE_ALL 0x20
47 : : #define ACPI_IVMD_TYPE 0x21
48 : : #define ACPI_IVMD_TYPE_RANGE 0x22
49 : :
50 : : #define IVHD_DEV_ALL 0x01
51 : : #define IVHD_DEV_SELECT 0x02
52 : : #define IVHD_DEV_SELECT_RANGE_START 0x03
53 : : #define IVHD_DEV_RANGE_END 0x04
54 : : #define IVHD_DEV_ALIAS 0x42
55 : : #define IVHD_DEV_ALIAS_RANGE 0x43
56 : : #define IVHD_DEV_EXT_SELECT 0x46
57 : : #define IVHD_DEV_EXT_SELECT_RANGE 0x47
58 : : #define IVHD_DEV_SPECIAL 0x48
59 : : #define IVHD_DEV_ACPI_HID 0xf0
60 : :
61 : : #define UID_NOT_PRESENT 0
62 : : #define UID_IS_INTEGER 1
63 : : #define UID_IS_CHARACTER 2
64 : :
65 : : #define IVHD_SPECIAL_IOAPIC 1
66 : : #define IVHD_SPECIAL_HPET 2
67 : :
68 : : #define IVHD_FLAG_HT_TUN_EN_MASK 0x01
69 : : #define IVHD_FLAG_PASSPW_EN_MASK 0x02
70 : : #define IVHD_FLAG_RESPASSPW_EN_MASK 0x04
71 : : #define IVHD_FLAG_ISOC_EN_MASK 0x08
72 : :
73 : : #define IVMD_FLAG_EXCL_RANGE 0x08
74 : : #define IVMD_FLAG_IW 0x04
75 : : #define IVMD_FLAG_IR 0x02
76 : : #define IVMD_FLAG_UNITY_MAP 0x01
77 : :
78 : : #define ACPI_DEVFLAG_INITPASS 0x01
79 : : #define ACPI_DEVFLAG_EXTINT 0x02
80 : : #define ACPI_DEVFLAG_NMI 0x04
81 : : #define ACPI_DEVFLAG_SYSMGT1 0x10
82 : : #define ACPI_DEVFLAG_SYSMGT2 0x20
83 : : #define ACPI_DEVFLAG_LINT0 0x40
84 : : #define ACPI_DEVFLAG_LINT1 0x80
85 : : #define ACPI_DEVFLAG_ATSDIS 0x10000000
86 : :
87 : : #define LOOP_TIMEOUT 100000
88 : : /*
89 : : * ACPI table definitions
90 : : *
91 : : * These data structures are laid over the table to parse the important values
92 : : * out of it.
93 : : */
94 : :
95 : : extern const struct iommu_ops amd_iommu_ops;
96 : :
97 : : /*
98 : : * structure describing one IOMMU in the ACPI table. Typically followed by one
99 : : * or more ivhd_entrys.
100 : : */
101 : : struct ivhd_header {
102 : : u8 type;
103 : : u8 flags;
104 : : u16 length;
105 : : u16 devid;
106 : : u16 cap_ptr;
107 : : u64 mmio_phys;
108 : : u16 pci_seg;
109 : : u16 info;
110 : : u32 efr_attr;
111 : :
112 : : /* Following only valid on IVHD type 11h and 40h */
113 : : u64 efr_reg; /* Exact copy of MMIO_EXT_FEATURES */
114 : : u64 res;
115 : : } __attribute__((packed));
116 : :
117 : : /*
118 : : * A device entry describing which devices a specific IOMMU translates and
119 : : * which requestor ids they use.
120 : : */
121 : : struct ivhd_entry {
122 : : u8 type;
123 : : u16 devid;
124 : : u8 flags;
125 : : u32 ext;
126 : : u32 hidh;
127 : : u64 cid;
128 : : u8 uidf;
129 : : u8 uidl;
130 : : u8 uid;
131 : : } __attribute__((packed));
132 : :
133 : : /*
134 : : * An AMD IOMMU memory definition structure. It defines things like exclusion
135 : : * ranges for devices and regions that should be unity mapped.
136 : : */
137 : : struct ivmd_header {
138 : : u8 type;
139 : : u8 flags;
140 : : u16 length;
141 : : u16 devid;
142 : : u16 aux;
143 : : u64 resv;
144 : : u64 range_start;
145 : : u64 range_length;
146 : : } __attribute__((packed));
147 : :
148 : : bool amd_iommu_dump;
149 : : bool amd_iommu_irq_remap __read_mostly;
150 : :
151 : : int amd_iommu_guest_ir = AMD_IOMMU_GUEST_IR_VAPIC;
152 : : static int amd_iommu_xt_mode = IRQ_REMAP_XAPIC_MODE;
153 : :
154 : : static bool amd_iommu_detected;
155 : : static bool __initdata amd_iommu_disabled;
156 : : static int amd_iommu_target_ivhd_type;
157 : :
158 : : u16 amd_iommu_last_bdf; /* largest PCI device id we have
159 : : to handle */
160 : : LIST_HEAD(amd_iommu_unity_map); /* a list of required unity mappings
161 : : we find in ACPI */
162 : : bool amd_iommu_unmap_flush; /* if true, flush on every unmap */
163 : :
164 : : LIST_HEAD(amd_iommu_list); /* list of all AMD IOMMUs in the
165 : : system */
166 : :
167 : : /* Array to assign indices to IOMMUs*/
168 : : struct amd_iommu *amd_iommus[MAX_IOMMUS];
169 : :
170 : : /* Number of IOMMUs present in the system */
171 : : static int amd_iommus_present;
172 : :
173 : : /* IOMMUs have a non-present cache? */
174 : : bool amd_iommu_np_cache __read_mostly;
175 : : bool amd_iommu_iotlb_sup __read_mostly = true;
176 : :
177 : : u32 amd_iommu_max_pasid __read_mostly = ~0;
178 : :
179 : : bool amd_iommu_v2_present __read_mostly;
180 : : static bool amd_iommu_pc_present __read_mostly;
181 : :
182 : : bool amd_iommu_force_isolation __read_mostly;
183 : :
184 : : /*
185 : : * Pointer to the device table which is shared by all AMD IOMMUs
186 : : * it is indexed by the PCI device id or the HT unit id and contains
187 : : * information about the domain the device belongs to as well as the
188 : : * page table root pointer.
189 : : */
190 : : struct dev_table_entry *amd_iommu_dev_table;
191 : : /*
192 : : * Pointer to a device table which the content of old device table
193 : : * will be copied to. It's only be used in kdump kernel.
194 : : */
195 : : static struct dev_table_entry *old_dev_tbl_cpy;
196 : :
197 : : /*
198 : : * The alias table is a driver specific data structure which contains the
199 : : * mappings of the PCI device ids to the actual requestor ids on the IOMMU.
200 : : * More than one device can share the same requestor id.
201 : : */
202 : : u16 *amd_iommu_alias_table;
203 : :
204 : : /*
205 : : * The rlookup table is used to find the IOMMU which is responsible
206 : : * for a specific device. It is also indexed by the PCI device id.
207 : : */
208 : : struct amd_iommu **amd_iommu_rlookup_table;
209 : : EXPORT_SYMBOL(amd_iommu_rlookup_table);
210 : :
211 : : /*
212 : : * This table is used to find the irq remapping table for a given device id
213 : : * quickly.
214 : : */
215 : : struct irq_remap_table **irq_lookup_table;
216 : :
217 : : /*
218 : : * AMD IOMMU allows up to 2^16 different protection domains. This is a bitmap
219 : : * to know which ones are already in use.
220 : : */
221 : : unsigned long *amd_iommu_pd_alloc_bitmap;
222 : :
223 : : static u32 dev_table_size; /* size of the device table */
224 : : static u32 alias_table_size; /* size of the alias table */
225 : : static u32 rlookup_table_size; /* size if the rlookup table */
226 : :
227 : : enum iommu_init_state {
228 : : IOMMU_START_STATE,
229 : : IOMMU_IVRS_DETECTED,
230 : : IOMMU_ACPI_FINISHED,
231 : : IOMMU_ENABLED,
232 : : IOMMU_PCI_INIT,
233 : : IOMMU_INTERRUPTS_EN,
234 : : IOMMU_DMA_OPS,
235 : : IOMMU_INITIALIZED,
236 : : IOMMU_NOT_FOUND,
237 : : IOMMU_INIT_ERROR,
238 : : IOMMU_CMDLINE_DISABLED,
239 : : };
240 : :
241 : : /* Early ioapic and hpet maps from kernel command line */
242 : : #define EARLY_MAP_SIZE 4
243 : : static struct devid_map __initdata early_ioapic_map[EARLY_MAP_SIZE];
244 : : static struct devid_map __initdata early_hpet_map[EARLY_MAP_SIZE];
245 : : static struct acpihid_map_entry __initdata early_acpihid_map[EARLY_MAP_SIZE];
246 : :
247 : : static int __initdata early_ioapic_map_size;
248 : : static int __initdata early_hpet_map_size;
249 : : static int __initdata early_acpihid_map_size;
250 : :
251 : : static bool __initdata cmdline_maps;
252 : :
253 : : static enum iommu_init_state init_state = IOMMU_START_STATE;
254 : :
255 : : static int amd_iommu_enable_interrupts(void);
256 : : static int __init iommu_go_to_state(enum iommu_init_state state);
257 : : static void init_device_table_dma(void);
258 : :
259 : : static bool amd_iommu_pre_enabled = true;
260 : :
261 : 0 : bool translation_pre_enabled(struct amd_iommu *iommu)
262 : : {
263 : 0 : return (iommu->flags & AMD_IOMMU_FLAG_TRANS_PRE_ENABLED);
264 : : }
265 : : EXPORT_SYMBOL(translation_pre_enabled);
266 : :
267 : 0 : static void clear_translation_pre_enabled(struct amd_iommu *iommu)
268 : : {
269 : 0 : iommu->flags &= ~AMD_IOMMU_FLAG_TRANS_PRE_ENABLED;
270 : : }
271 : :
272 : 0 : static void init_translation_status(struct amd_iommu *iommu)
273 : : {
274 : 0 : u64 ctrl;
275 : :
276 : 0 : ctrl = readq(iommu->mmio_base + MMIO_CONTROL_OFFSET);
277 [ # # ]: 0 : if (ctrl & (1<<CONTROL_IOMMU_EN))
278 : 0 : iommu->flags |= AMD_IOMMU_FLAG_TRANS_PRE_ENABLED;
279 : : }
280 : :
281 : 0 : static inline void update_last_devid(u16 devid)
282 : : {
283 : 0 : if (devid > amd_iommu_last_bdf)
284 : 0 : amd_iommu_last_bdf = devid;
285 : : }
286 : :
287 : 0 : static inline unsigned long tbl_size(int entry_size)
288 : : {
289 : 0 : unsigned shift = PAGE_SHIFT +
290 : 0 : get_order(((int)amd_iommu_last_bdf + 1) * entry_size);
291 : :
292 : 0 : return 1UL << shift;
293 : : }
294 : :
295 : 0 : int amd_iommu_get_num_iommus(void)
296 : : {
297 : 0 : return amd_iommus_present;
298 : : }
299 : :
300 : : /* Access to l1 and l2 indexed register spaces */
301 : :
302 : 0 : static u32 iommu_read_l1(struct amd_iommu *iommu, u16 l1, u8 address)
303 : : {
304 : 0 : u32 val;
305 : :
306 : 0 : pci_write_config_dword(iommu->dev, 0xf8, (address | l1 << 16));
307 : 0 : pci_read_config_dword(iommu->dev, 0xfc, &val);
308 : 0 : return val;
309 : : }
310 : :
311 : 0 : static void iommu_write_l1(struct amd_iommu *iommu, u16 l1, u8 address, u32 val)
312 : : {
313 : 0 : pci_write_config_dword(iommu->dev, 0xf8, (address | l1 << 16 | 1 << 31));
314 : 0 : pci_write_config_dword(iommu->dev, 0xfc, val);
315 : 0 : pci_write_config_dword(iommu->dev, 0xf8, (address | l1 << 16));
316 : 0 : }
317 : :
318 : 0 : static u32 iommu_read_l2(struct amd_iommu *iommu, u8 address)
319 : : {
320 : 0 : u32 val;
321 : :
322 : 0 : pci_write_config_dword(iommu->dev, 0xf0, address);
323 : 0 : pci_read_config_dword(iommu->dev, 0xf4, &val);
324 : 0 : return val;
325 : : }
326 : :
327 : 0 : static void iommu_write_l2(struct amd_iommu *iommu, u8 address, u32 val)
328 : : {
329 : 0 : pci_write_config_dword(iommu->dev, 0xf0, (address | 1 << 8));
330 : 0 : pci_write_config_dword(iommu->dev, 0xf4, val);
331 : 0 : }
332 : :
333 : : /****************************************************************************
334 : : *
335 : : * AMD IOMMU MMIO register space handling functions
336 : : *
337 : : * These functions are used to program the IOMMU device registers in
338 : : * MMIO space required for that driver.
339 : : *
340 : : ****************************************************************************/
341 : :
342 : : /*
343 : : * This function set the exclusion range in the IOMMU. DMA accesses to the
344 : : * exclusion range are passed through untranslated
345 : : */
346 : 0 : static void iommu_set_exclusion_range(struct amd_iommu *iommu)
347 : : {
348 : 0 : u64 start = iommu->exclusion_start & PAGE_MASK;
349 : 0 : u64 limit = (start + iommu->exclusion_length - 1) & PAGE_MASK;
350 : 0 : u64 entry;
351 : :
352 [ # # ]: 0 : if (!iommu->exclusion_start)
353 : 0 : return;
354 : :
355 : 0 : entry = start | MMIO_EXCL_ENABLE_MASK;
356 : 0 : memcpy_toio(iommu->mmio_base + MMIO_EXCL_BASE_OFFSET,
357 : : &entry, sizeof(entry));
358 : :
359 : 0 : entry = limit;
360 : 0 : memcpy_toio(iommu->mmio_base + MMIO_EXCL_LIMIT_OFFSET,
361 : : &entry, sizeof(entry));
362 : : }
363 : :
364 : : /* Programs the physical address of the device table into the IOMMU hardware */
365 : 0 : static void iommu_set_device_table(struct amd_iommu *iommu)
366 : : {
367 : 0 : u64 entry;
368 : :
369 [ # # ]: 0 : BUG_ON(iommu->mmio_base == NULL);
370 : :
371 [ # # ]: 0 : entry = iommu_virt_to_phys(amd_iommu_dev_table);
372 : 0 : entry |= (dev_table_size >> 12) - 1;
373 : 0 : memcpy_toio(iommu->mmio_base + MMIO_DEV_TABLE_OFFSET,
374 : : &entry, sizeof(entry));
375 : 0 : }
376 : :
377 : : /* Generic functions to enable/disable certain features of the IOMMU. */
378 : 0 : static void iommu_feature_enable(struct amd_iommu *iommu, u8 bit)
379 : : {
380 : 0 : u64 ctrl;
381 : :
382 : 0 : ctrl = readq(iommu->mmio_base + MMIO_CONTROL_OFFSET);
383 : 0 : ctrl |= (1ULL << bit);
384 : 0 : writeq(ctrl, iommu->mmio_base + MMIO_CONTROL_OFFSET);
385 : 0 : }
386 : :
387 : 0 : static void iommu_feature_disable(struct amd_iommu *iommu, u8 bit)
388 : : {
389 : 0 : u64 ctrl;
390 : :
391 : 0 : ctrl = readq(iommu->mmio_base + MMIO_CONTROL_OFFSET);
392 : 0 : ctrl &= ~(1ULL << bit);
393 : 0 : writeq(ctrl, iommu->mmio_base + MMIO_CONTROL_OFFSET);
394 : 0 : }
395 : :
396 : 0 : static void iommu_set_inv_tlb_timeout(struct amd_iommu *iommu, int timeout)
397 : : {
398 : 0 : u64 ctrl;
399 : :
400 : 0 : ctrl = readq(iommu->mmio_base + MMIO_CONTROL_OFFSET);
401 : 0 : ctrl &= ~CTRL_INV_TO_MASK;
402 : 0 : ctrl |= (timeout << CONTROL_INV_TIMEOUT) & CTRL_INV_TO_MASK;
403 : 0 : writeq(ctrl, iommu->mmio_base + MMIO_CONTROL_OFFSET);
404 : : }
405 : :
406 : : /* Function to enable the hardware */
407 : 0 : static void iommu_enable(struct amd_iommu *iommu)
408 : : {
409 : 0 : iommu_feature_enable(iommu, CONTROL_IOMMU_EN);
410 : : }
411 : :
412 : 0 : static void iommu_disable(struct amd_iommu *iommu)
413 : : {
414 [ # # ]: 0 : if (!iommu->mmio_base)
415 : : return;
416 : :
417 : : /* Disable command buffer */
418 : 0 : iommu_feature_disable(iommu, CONTROL_CMDBUF_EN);
419 : :
420 : : /* Disable event logging and event interrupts */
421 : 0 : iommu_feature_disable(iommu, CONTROL_EVT_INT_EN);
422 : 0 : iommu_feature_disable(iommu, CONTROL_EVT_LOG_EN);
423 : :
424 : : /* Disable IOMMU GA_LOG */
425 : 0 : iommu_feature_disable(iommu, CONTROL_GALOG_EN);
426 : 0 : iommu_feature_disable(iommu, CONTROL_GAINT_EN);
427 : :
428 : : /* Disable IOMMU hardware itself */
429 : 0 : iommu_feature_disable(iommu, CONTROL_IOMMU_EN);
430 : : }
431 : :
432 : : /*
433 : : * mapping and unmapping functions for the IOMMU MMIO space. Each AMD IOMMU in
434 : : * the system has one.
435 : : */
436 : 0 : static u8 __iomem * __init iommu_map_mmio_space(u64 address, u64 end)
437 : : {
438 [ # # ]: 0 : if (!request_mem_region(address, end, "amd_iommu")) {
439 : 0 : pr_err("Can not reserve memory region %llx-%llx for mmio\n",
440 : : address, end);
441 : 0 : pr_err("This is a BIOS bug. Please contact your hardware vendor\n");
442 : 0 : return NULL;
443 : : }
444 : :
445 : 0 : return (u8 __iomem *)ioremap(address, end);
446 : : }
447 : :
448 : 0 : static void __init iommu_unmap_mmio_space(struct amd_iommu *iommu)
449 : : {
450 [ # # ]: 0 : if (iommu->mmio_base)
451 : 0 : iounmap(iommu->mmio_base);
452 : 0 : release_mem_region(iommu->mmio_phys, iommu->mmio_phys_end);
453 : 0 : }
454 : :
455 : 0 : static inline u32 get_ivhd_header_size(struct ivhd_header *h)
456 : : {
457 : 0 : u32 size = 0;
458 : :
459 : 0 : switch (h->type) {
460 : : case 0x10:
461 : 0 : size = 24;
462 : 0 : break;
463 : : case 0x11:
464 : : case 0x40:
465 : : size = 40;
466 : : break;
467 : : }
468 : 0 : return size;
469 : : }
470 : :
471 : : /****************************************************************************
472 : : *
473 : : * The functions below belong to the first pass of AMD IOMMU ACPI table
474 : : * parsing. In this pass we try to find out the highest device id this
475 : : * code has to handle. Upon this information the size of the shared data
476 : : * structures is determined later.
477 : : *
478 : : ****************************************************************************/
479 : :
480 : : /*
481 : : * This function calculates the length of a given IVHD entry
482 : : */
483 : 0 : static inline int ivhd_entry_length(u8 *ivhd)
484 : : {
485 : 0 : u32 type = ((struct ivhd_entry *)ivhd)->type;
486 : :
487 : 0 : if (type < 0x80) {
488 : 0 : return 0x04 << (*ivhd >> 6);
489 [ # # # # ]: 0 : } else if (type == IVHD_DEV_ACPI_HID) {
490 : : /* For ACPI_HID, offset 21 is uid len */
491 : 0 : return *((u8 *)ivhd + 21) + 22;
492 : : }
493 : : return 0;
494 : : }
495 : :
496 : : /*
497 : : * After reading the highest device id from the IOMMU PCI capability header
498 : : * this function looks if there is a higher device id defined in the ACPI table
499 : : */
500 : 0 : static int __init find_last_devid_from_ivhd(struct ivhd_header *h)
501 : : {
502 : 0 : u8 *p = (void *)h, *end = (void *)h;
503 : 0 : struct ivhd_entry *dev;
504 : :
505 [ # # # ]: 0 : u32 ivhd_size = get_ivhd_header_size(h);
506 : :
507 : 0 : if (!ivhd_size) {
508 : 0 : pr_err("Unsupported IVHD type %#x\n", h->type);
509 : 0 : return -EINVAL;
510 : : }
511 : :
512 : 0 : p += ivhd_size;
513 : 0 : end += h->length;
514 : :
515 [ # # ]: 0 : while (p < end) {
516 : 0 : dev = (struct ivhd_entry *)p;
517 [ # # # ]: 0 : switch (dev->type) {
518 : : case IVHD_DEV_ALL:
519 : : /* Use maximum BDF value for DEV_ALL */
520 [ # # ]: 0 : update_last_devid(0xffff);
521 : : break;
522 : 0 : case IVHD_DEV_SELECT:
523 : : case IVHD_DEV_RANGE_END:
524 : : case IVHD_DEV_ALIAS:
525 : : case IVHD_DEV_EXT_SELECT:
526 : : /* all the above subfield types refer to device ids */
527 [ # # ]: 0 : update_last_devid(dev->devid);
528 : : break;
529 : : default:
530 : : break;
531 : : }
532 [ # # ]: 0 : p += ivhd_entry_length(p);
533 : : }
534 : :
535 [ # # ]: 0 : WARN_ON(p != end);
536 : :
537 : : return 0;
538 : : }
539 : :
540 : 0 : static int __init check_ivrs_checksum(struct acpi_table_header *table)
541 : : {
542 : 0 : int i;
543 : 0 : u8 checksum = 0, *p = (u8 *)table;
544 : :
545 [ # # ]: 0 : for (i = 0; i < table->length; ++i)
546 : 0 : checksum += p[i];
547 [ # # ]: 0 : if (checksum != 0) {
548 : : /* ACPI table corrupt */
549 : 0 : pr_err(FW_BUG "IVRS invalid checksum\n");
550 : 0 : return -ENODEV;
551 : : }
552 : :
553 : : return 0;
554 : : }
555 : :
556 : : /*
557 : : * Iterate over all IVHD entries in the ACPI table and find the highest device
558 : : * id which we need to handle. This is the first of three functions which parse
559 : : * the ACPI table. So we check the checksum here.
560 : : */
561 : 0 : static int __init find_last_devid_acpi(struct acpi_table_header *table)
562 : : {
563 : 0 : u8 *p = (u8 *)table, *end = (u8 *)table;
564 : 0 : struct ivhd_header *h;
565 : :
566 : 0 : p += IVRS_HEADER_LENGTH;
567 : :
568 : 0 : end += table->length;
569 [ # # ]: 0 : while (p < end) {
570 : 0 : h = (struct ivhd_header *)p;
571 [ # # ]: 0 : if (h->type == amd_iommu_target_ivhd_type) {
572 : 0 : int ret = find_last_devid_from_ivhd(h);
573 : :
574 [ # # ]: 0 : if (ret)
575 : 0 : return ret;
576 : : }
577 : 0 : p += h->length;
578 : : }
579 [ # # ]: 0 : WARN_ON(p != end);
580 : :
581 : : return 0;
582 : : }
583 : :
584 : : /****************************************************************************
585 : : *
586 : : * The following functions belong to the code path which parses the ACPI table
587 : : * the second time. In this ACPI parsing iteration we allocate IOMMU specific
588 : : * data structures, initialize the device/alias/rlookup table and also
589 : : * basically initialize the hardware.
590 : : *
591 : : ****************************************************************************/
592 : :
593 : : /*
594 : : * Allocates the command buffer. This buffer is per AMD IOMMU. We can
595 : : * write commands to that buffer later and the IOMMU will execute them
596 : : * asynchronously
597 : : */
598 : 0 : static int __init alloc_command_buffer(struct amd_iommu *iommu)
599 : : {
600 : 0 : iommu->cmd_buf = (void *)__get_free_pages(GFP_KERNEL | __GFP_ZERO,
601 : : get_order(CMD_BUFFER_SIZE));
602 : :
603 [ # # ]: 0 : return iommu->cmd_buf ? 0 : -ENOMEM;
604 : : }
605 : :
606 : : /*
607 : : * This function resets the command buffer if the IOMMU stopped fetching
608 : : * commands from it.
609 : : */
610 : 0 : void amd_iommu_reset_cmd_buffer(struct amd_iommu *iommu)
611 : : {
612 : 0 : iommu_feature_disable(iommu, CONTROL_CMDBUF_EN);
613 : :
614 : 0 : writel(0x00, iommu->mmio_base + MMIO_CMD_HEAD_OFFSET);
615 : 0 : writel(0x00, iommu->mmio_base + MMIO_CMD_TAIL_OFFSET);
616 : 0 : iommu->cmd_buf_head = 0;
617 : 0 : iommu->cmd_buf_tail = 0;
618 : :
619 : 0 : iommu_feature_enable(iommu, CONTROL_CMDBUF_EN);
620 : 0 : }
621 : :
622 : : /*
623 : : * This function writes the command buffer address to the hardware and
624 : : * enables it.
625 : : */
626 : 0 : static void iommu_enable_command_buffer(struct amd_iommu *iommu)
627 : : {
628 : 0 : u64 entry;
629 : :
630 [ # # ]: 0 : BUG_ON(iommu->cmd_buf == NULL);
631 : :
632 [ # # ]: 0 : entry = iommu_virt_to_phys(iommu->cmd_buf);
633 : 0 : entry |= MMIO_CMD_SIZE_512;
634 : :
635 : 0 : memcpy_toio(iommu->mmio_base + MMIO_CMD_BUF_OFFSET,
636 : : &entry, sizeof(entry));
637 : :
638 : 0 : amd_iommu_reset_cmd_buffer(iommu);
639 : 0 : }
640 : :
641 : : /*
642 : : * This function disables the command buffer
643 : : */
644 : 0 : static void iommu_disable_command_buffer(struct amd_iommu *iommu)
645 : : {
646 : 0 : iommu_feature_disable(iommu, CONTROL_CMDBUF_EN);
647 : : }
648 : :
649 : 0 : static void __init free_command_buffer(struct amd_iommu *iommu)
650 : : {
651 : 0 : free_pages((unsigned long)iommu->cmd_buf, get_order(CMD_BUFFER_SIZE));
652 : 0 : }
653 : :
654 : : /* allocates the memory where the IOMMU will log its events to */
655 : 0 : static int __init alloc_event_buffer(struct amd_iommu *iommu)
656 : : {
657 : 0 : iommu->evt_buf = (void *)__get_free_pages(GFP_KERNEL | __GFP_ZERO,
658 : : get_order(EVT_BUFFER_SIZE));
659 : :
660 [ # # ]: 0 : return iommu->evt_buf ? 0 : -ENOMEM;
661 : : }
662 : :
663 : 0 : static void iommu_enable_event_buffer(struct amd_iommu *iommu)
664 : : {
665 : 0 : u64 entry;
666 : :
667 [ # # ]: 0 : BUG_ON(iommu->evt_buf == NULL);
668 : :
669 [ # # ]: 0 : entry = iommu_virt_to_phys(iommu->evt_buf) | EVT_LEN_MASK;
670 : :
671 : 0 : memcpy_toio(iommu->mmio_base + MMIO_EVT_BUF_OFFSET,
672 : : &entry, sizeof(entry));
673 : :
674 : : /* set head and tail to zero manually */
675 : 0 : writel(0x00, iommu->mmio_base + MMIO_EVT_HEAD_OFFSET);
676 : 0 : writel(0x00, iommu->mmio_base + MMIO_EVT_TAIL_OFFSET);
677 : :
678 : 0 : iommu_feature_enable(iommu, CONTROL_EVT_LOG_EN);
679 : 0 : }
680 : :
681 : : /*
682 : : * This function disables the event log buffer
683 : : */
684 : 0 : static void iommu_disable_event_buffer(struct amd_iommu *iommu)
685 : : {
686 : 0 : iommu_feature_disable(iommu, CONTROL_EVT_LOG_EN);
687 : : }
688 : :
689 : 0 : static void __init free_event_buffer(struct amd_iommu *iommu)
690 : : {
691 : 0 : free_pages((unsigned long)iommu->evt_buf, get_order(EVT_BUFFER_SIZE));
692 : 0 : }
693 : :
694 : : /* allocates the memory where the IOMMU will log its events to */
695 : 0 : static int __init alloc_ppr_log(struct amd_iommu *iommu)
696 : : {
697 : 0 : iommu->ppr_log = (void *)__get_free_pages(GFP_KERNEL | __GFP_ZERO,
698 : : get_order(PPR_LOG_SIZE));
699 : :
700 [ # # ]: 0 : return iommu->ppr_log ? 0 : -ENOMEM;
701 : : }
702 : :
703 : 0 : static void iommu_enable_ppr_log(struct amd_iommu *iommu)
704 : : {
705 : 0 : u64 entry;
706 : :
707 [ # # ]: 0 : if (iommu->ppr_log == NULL)
708 : 0 : return;
709 : :
710 [ # # ]: 0 : entry = iommu_virt_to_phys(iommu->ppr_log) | PPR_LOG_SIZE_512;
711 : :
712 : 0 : memcpy_toio(iommu->mmio_base + MMIO_PPR_LOG_OFFSET,
713 : : &entry, sizeof(entry));
714 : :
715 : : /* set head and tail to zero manually */
716 : 0 : writel(0x00, iommu->mmio_base + MMIO_PPR_HEAD_OFFSET);
717 : 0 : writel(0x00, iommu->mmio_base + MMIO_PPR_TAIL_OFFSET);
718 : :
719 : 0 : iommu_feature_enable(iommu, CONTROL_PPRLOG_EN);
720 : 0 : iommu_feature_enable(iommu, CONTROL_PPR_EN);
721 : : }
722 : :
723 : 0 : static void __init free_ppr_log(struct amd_iommu *iommu)
724 : : {
725 [ # # ]: 0 : if (iommu->ppr_log == NULL)
726 : : return;
727 : :
728 : 0 : free_pages((unsigned long)iommu->ppr_log, get_order(PPR_LOG_SIZE));
729 : : }
730 : :
731 : 0 : static void free_ga_log(struct amd_iommu *iommu)
732 : : {
733 : : #ifdef CONFIG_IRQ_REMAP
734 : : if (iommu->ga_log)
735 : : free_pages((unsigned long)iommu->ga_log,
736 : : get_order(GA_LOG_SIZE));
737 : : if (iommu->ga_log_tail)
738 : : free_pages((unsigned long)iommu->ga_log_tail,
739 : : get_order(8));
740 : : #endif
741 : 0 : }
742 : :
743 : : static int iommu_ga_log_enable(struct amd_iommu *iommu)
744 : : {
745 : : #ifdef CONFIG_IRQ_REMAP
746 : : u32 status, i;
747 : :
748 : : if (!iommu->ga_log)
749 : : return -EINVAL;
750 : :
751 : : status = readl(iommu->mmio_base + MMIO_STATUS_OFFSET);
752 : :
753 : : /* Check if already running */
754 : : if (status & (MMIO_STATUS_GALOG_RUN_MASK))
755 : : return 0;
756 : :
757 : : iommu_feature_enable(iommu, CONTROL_GAINT_EN);
758 : : iommu_feature_enable(iommu, CONTROL_GALOG_EN);
759 : :
760 : : for (i = 0; i < LOOP_TIMEOUT; ++i) {
761 : : status = readl(iommu->mmio_base + MMIO_STATUS_OFFSET);
762 : : if (status & (MMIO_STATUS_GALOG_RUN_MASK))
763 : : break;
764 : : }
765 : :
766 : : if (i >= LOOP_TIMEOUT)
767 : : return -EINVAL;
768 : : #endif /* CONFIG_IRQ_REMAP */
769 : : return 0;
770 : : }
771 : :
772 : : #ifdef CONFIG_IRQ_REMAP
773 : : static int iommu_init_ga_log(struct amd_iommu *iommu)
774 : : {
775 : : u64 entry;
776 : :
777 : : if (!AMD_IOMMU_GUEST_IR_VAPIC(amd_iommu_guest_ir))
778 : : return 0;
779 : :
780 : : iommu->ga_log = (u8 *)__get_free_pages(GFP_KERNEL | __GFP_ZERO,
781 : : get_order(GA_LOG_SIZE));
782 : : if (!iommu->ga_log)
783 : : goto err_out;
784 : :
785 : : iommu->ga_log_tail = (u8 *)__get_free_pages(GFP_KERNEL | __GFP_ZERO,
786 : : get_order(8));
787 : : if (!iommu->ga_log_tail)
788 : : goto err_out;
789 : :
790 : : entry = iommu_virt_to_phys(iommu->ga_log) | GA_LOG_SIZE_512;
791 : : memcpy_toio(iommu->mmio_base + MMIO_GA_LOG_BASE_OFFSET,
792 : : &entry, sizeof(entry));
793 : : entry = (iommu_virt_to_phys(iommu->ga_log_tail) &
794 : : (BIT_ULL(52)-1)) & ~7ULL;
795 : : memcpy_toio(iommu->mmio_base + MMIO_GA_LOG_TAIL_OFFSET,
796 : : &entry, sizeof(entry));
797 : : writel(0x00, iommu->mmio_base + MMIO_GA_HEAD_OFFSET);
798 : : writel(0x00, iommu->mmio_base + MMIO_GA_TAIL_OFFSET);
799 : :
800 : : return 0;
801 : : err_out:
802 : : free_ga_log(iommu);
803 : : return -EINVAL;
804 : : }
805 : : #endif /* CONFIG_IRQ_REMAP */
806 : :
807 : 0 : static int iommu_init_ga(struct amd_iommu *iommu)
808 : : {
809 : 0 : int ret = 0;
810 : :
811 : : #ifdef CONFIG_IRQ_REMAP
812 : : /* Note: We have already checked GASup from IVRS table.
813 : : * Now, we need to make sure that GAMSup is set.
814 : : */
815 : : if (AMD_IOMMU_GUEST_IR_VAPIC(amd_iommu_guest_ir) &&
816 : : !iommu_feature(iommu, FEATURE_GAM_VAPIC))
817 : : amd_iommu_guest_ir = AMD_IOMMU_GUEST_IR_LEGACY_GA;
818 : :
819 : : ret = iommu_init_ga_log(iommu);
820 : : #endif /* CONFIG_IRQ_REMAP */
821 : :
822 : 0 : return ret;
823 : : }
824 : :
825 : 0 : static void iommu_enable_xt(struct amd_iommu *iommu)
826 : : {
827 : : #ifdef CONFIG_IRQ_REMAP
828 : : /*
829 : : * XT mode (32-bit APIC destination ID) requires
830 : : * GA mode (128-bit IRTE support) as a prerequisite.
831 : : */
832 : : if (AMD_IOMMU_GUEST_IR_GA(amd_iommu_guest_ir) &&
833 : : amd_iommu_xt_mode == IRQ_REMAP_X2APIC_MODE)
834 : : iommu_feature_enable(iommu, CONTROL_XT_EN);
835 : : #endif /* CONFIG_IRQ_REMAP */
836 : 0 : }
837 : :
838 : 0 : static void iommu_enable_gt(struct amd_iommu *iommu)
839 : : {
840 [ # # ]: 0 : if (!iommu_feature(iommu, FEATURE_GT))
841 : : return;
842 : :
843 : 0 : iommu_feature_enable(iommu, CONTROL_GT_EN);
844 : : }
845 : :
846 : : /* sets a specific bit in the device table entry. */
847 : 0 : static void set_dev_entry_bit(u16 devid, u8 bit)
848 : : {
849 : 0 : int i = (bit >> 6) & 0x03;
850 : 0 : int _bit = bit & 0x3f;
851 : :
852 : 0 : amd_iommu_dev_table[devid].data[i] |= (1UL << _bit);
853 : 0 : }
854 : :
855 : 0 : static int get_dev_entry_bit(u16 devid, u8 bit)
856 : : {
857 : 0 : int i = (bit >> 6) & 0x03;
858 : 0 : int _bit = bit & 0x3f;
859 : :
860 : 0 : return (amd_iommu_dev_table[devid].data[i] & (1UL << _bit)) >> _bit;
861 : : }
862 : :
863 : :
864 : 0 : static bool copy_device_table(void)
865 : : {
866 : 0 : u64 int_ctl, int_tab_len, entry = 0, last_entry = 0;
867 : 0 : struct dev_table_entry *old_devtb = NULL;
868 : 0 : u32 lo, hi, devid, old_devtb_size;
869 : 0 : phys_addr_t old_devtb_phys;
870 : 0 : struct amd_iommu *iommu;
871 : 0 : u16 dom_id, dte_v, irq_v;
872 : 0 : gfp_t gfp_flag;
873 : 0 : u64 tmp;
874 : :
875 [ # # ]: 0 : if (!amd_iommu_pre_enabled)
876 : : return false;
877 : :
878 : 0 : pr_warn("Translation is already enabled - trying to copy translation structures\n");
879 [ # # ]: 0 : for_each_iommu(iommu) {
880 : : /* All IOMMUs should use the same device table with the same size */
881 : 0 : lo = readl(iommu->mmio_base + MMIO_DEV_TABLE_OFFSET);
882 : 0 : hi = readl(iommu->mmio_base + MMIO_DEV_TABLE_OFFSET + 4);
883 : 0 : entry = (((u64) hi) << 32) + lo;
884 [ # # ]: 0 : if (last_entry && last_entry != entry) {
885 : 0 : pr_err("IOMMU:%d should use the same dev table as others!\n",
886 : : iommu->index);
887 : 0 : return false;
888 : : }
889 : 0 : last_entry = entry;
890 : :
891 : 0 : old_devtb_size = ((entry & ~PAGE_MASK) + 1) << 12;
892 [ # # ]: 0 : if (old_devtb_size != dev_table_size) {
893 : 0 : pr_err("The device table size of IOMMU:%d is not expected!\n",
894 : : iommu->index);
895 : 0 : return false;
896 : : }
897 : : }
898 : :
899 : : /*
900 : : * When SME is enabled in the first kernel, the entry includes the
901 : : * memory encryption mask(sme_me_mask), we must remove the memory
902 : : * encryption mask to obtain the true physical address in kdump kernel.
903 : : */
904 : 0 : old_devtb_phys = __sme_clr(entry) & PAGE_MASK;
905 : :
906 [ # # ]: 0 : if (old_devtb_phys >= 0x100000000ULL) {
907 : 0 : pr_err("The address of old device table is above 4G, not trustworthy!\n");
908 : 0 : return false;
909 : : }
910 : 0 : old_devtb = (sme_active() && is_kdump_kernel())
911 : : ? (__force void *)ioremap_encrypted(old_devtb_phys,
912 : : dev_table_size)
913 : 0 : : memremap(old_devtb_phys, dev_table_size, MEMREMAP_WB);
914 : :
915 [ # # ]: 0 : if (!old_devtb)
916 : : return false;
917 : :
918 : 0 : gfp_flag = GFP_KERNEL | __GFP_ZERO | GFP_DMA32;
919 : 0 : old_dev_tbl_cpy = (void *)__get_free_pages(gfp_flag,
920 : 0 : get_order(dev_table_size));
921 [ # # ]: 0 : if (old_dev_tbl_cpy == NULL) {
922 : 0 : pr_err("Failed to allocate memory for copying old device table!\n");
923 : 0 : return false;
924 : : }
925 : :
926 [ # # ]: 0 : for (devid = 0; devid <= amd_iommu_last_bdf; ++devid) {
927 : 0 : old_dev_tbl_cpy[devid] = old_devtb[devid];
928 : 0 : dom_id = old_devtb[devid].data[1] & DEV_DOMID_MASK;
929 : 0 : dte_v = old_devtb[devid].data[0] & DTE_FLAG_V;
930 : :
931 [ # # ]: 0 : if (dte_v && dom_id) {
932 : 0 : old_dev_tbl_cpy[devid].data[0] = old_devtb[devid].data[0];
933 : 0 : old_dev_tbl_cpy[devid].data[1] = old_devtb[devid].data[1];
934 : 0 : __set_bit(dom_id, amd_iommu_pd_alloc_bitmap);
935 : : /* If gcr3 table existed, mask it out */
936 [ # # ]: 0 : if (old_devtb[devid].data[0] & DTE_FLAG_GV) {
937 : 0 : tmp = DTE_GCR3_VAL_B(~0ULL) << DTE_GCR3_SHIFT_B;
938 : 0 : tmp |= DTE_GCR3_VAL_C(~0ULL) << DTE_GCR3_SHIFT_C;
939 : 0 : old_dev_tbl_cpy[devid].data[1] &= ~tmp;
940 : 0 : tmp = DTE_GCR3_VAL_A(~0ULL) << DTE_GCR3_SHIFT_A;
941 : 0 : tmp |= DTE_FLAG_GV;
942 : 0 : old_dev_tbl_cpy[devid].data[0] &= ~tmp;
943 : : }
944 : : }
945 : :
946 : 0 : irq_v = old_devtb[devid].data[2] & DTE_IRQ_REMAP_ENABLE;
947 : 0 : int_ctl = old_devtb[devid].data[2] & DTE_IRQ_REMAP_INTCTL_MASK;
948 : 0 : int_tab_len = old_devtb[devid].data[2] & DTE_IRQ_TABLE_LEN_MASK;
949 [ # # # # ]: 0 : if (irq_v && (int_ctl || int_tab_len)) {
950 : 0 : if ((int_ctl != DTE_IRQ_REMAP_INTCTL) ||
951 [ # # ]: 0 : (int_tab_len != DTE_IRQ_TABLE_LEN)) {
952 : 0 : pr_err("Wrong old irq remapping flag: %#x\n", devid);
953 : 0 : return false;
954 : : }
955 : :
956 : 0 : old_dev_tbl_cpy[devid].data[2] = old_devtb[devid].data[2];
957 : : }
958 : : }
959 : 0 : memunmap(old_devtb);
960 : :
961 : 0 : return true;
962 : : }
963 : :
964 : 0 : void amd_iommu_apply_erratum_63(u16 devid)
965 : : {
966 : 0 : int sysmgt;
967 : :
968 : 0 : sysmgt = get_dev_entry_bit(devid, DEV_ENTRY_SYSMGT1) |
969 : 0 : (get_dev_entry_bit(devid, DEV_ENTRY_SYSMGT2) << 1);
970 : :
971 [ # # ]: 0 : if (sysmgt == 0x01)
972 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_IW);
973 : 0 : }
974 : :
975 : : /* Writes the specific IOMMU for a device into the rlookup table */
976 : 0 : static void __init set_iommu_for_device(struct amd_iommu *iommu, u16 devid)
977 : : {
978 : 0 : amd_iommu_rlookup_table[devid] = iommu;
979 : 0 : }
980 : :
981 : : /*
982 : : * This function takes the device specific flags read from the ACPI
983 : : * table and sets up the device table entry with that information
984 : : */
985 : 0 : static void __init set_dev_entry_from_acpi(struct amd_iommu *iommu,
986 : : u16 devid, u32 flags, u32 ext_flags)
987 : : {
988 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_INITPASS)
989 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_INIT_PASS);
990 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_EXTINT)
991 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_EINT_PASS);
992 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_NMI)
993 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_NMI_PASS);
994 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_SYSMGT1)
995 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_SYSMGT1);
996 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_SYSMGT2)
997 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_SYSMGT2);
998 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_LINT0)
999 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_LINT0_PASS);
1000 [ # # ]: 0 : if (flags & ACPI_DEVFLAG_LINT1)
1001 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_LINT1_PASS);
1002 : :
1003 [ # # ]: 0 : amd_iommu_apply_erratum_63(devid);
1004 : :
1005 : 0 : set_iommu_for_device(iommu, devid);
1006 : 0 : }
1007 : :
1008 : 0 : int __init add_special_device(u8 type, u8 id, u16 *devid, bool cmd_line)
1009 : : {
1010 : 0 : struct devid_map *entry;
1011 : 0 : struct list_head *list;
1012 : :
1013 [ # # ]: 0 : if (type == IVHD_SPECIAL_IOAPIC)
1014 : : list = &ioapic_map;
1015 [ # # ]: 0 : else if (type == IVHD_SPECIAL_HPET)
1016 : : list = &hpet_map;
1017 : : else
1018 : : return -EINVAL;
1019 : :
1020 [ # # ]: 0 : list_for_each_entry(entry, list, list) {
1021 [ # # # # ]: 0 : if (!(entry->id == id && entry->cmd_line))
1022 : 0 : continue;
1023 : :
1024 [ # # ]: 0 : pr_info("Command-line override present for %s id %d - ignoring\n",
1025 : : type == IVHD_SPECIAL_IOAPIC ? "IOAPIC" : "HPET", id);
1026 : :
1027 : 0 : *devid = entry->devid;
1028 : :
1029 : 0 : return 0;
1030 : : }
1031 : :
1032 : 0 : entry = kzalloc(sizeof(*entry), GFP_KERNEL);
1033 [ # # ]: 0 : if (!entry)
1034 : : return -ENOMEM;
1035 : :
1036 : 0 : entry->id = id;
1037 : 0 : entry->devid = *devid;
1038 : 0 : entry->cmd_line = cmd_line;
1039 : :
1040 : 0 : list_add_tail(&entry->list, list);
1041 : :
1042 : 0 : return 0;
1043 : : }
1044 : :
1045 : 0 : static int __init add_acpi_hid_device(u8 *hid, u8 *uid, u16 *devid,
1046 : : bool cmd_line)
1047 : : {
1048 : 0 : struct acpihid_map_entry *entry;
1049 : 0 : struct list_head *list = &acpihid_map;
1050 : :
1051 [ # # ]: 0 : list_for_each_entry(entry, list, list) {
1052 [ # # ]: 0 : if (strcmp(entry->hid, hid) ||
1053 [ # # # # : 0 : (*uid && *entry->uid && strcmp(entry->uid, uid)) ||
# # ]
1054 [ # # ]: 0 : !entry->cmd_line)
1055 : 0 : continue;
1056 : :
1057 : 0 : pr_info("Command-line override for hid:%s uid:%s\n",
1058 : : hid, uid);
1059 : 0 : *devid = entry->devid;
1060 : 0 : return 0;
1061 : : }
1062 : :
1063 : 0 : entry = kzalloc(sizeof(*entry), GFP_KERNEL);
1064 [ # # ]: 0 : if (!entry)
1065 : : return -ENOMEM;
1066 : :
1067 : 0 : memcpy(entry->uid, uid, strlen(uid));
1068 : 0 : memcpy(entry->hid, hid, strlen(hid));
1069 : 0 : entry->devid = *devid;
1070 : 0 : entry->cmd_line = cmd_line;
1071 : 0 : entry->root_devid = (entry->devid & (~0x7));
1072 : :
1073 [ # # ]: 0 : pr_info("%s, add hid:%s, uid:%s, rdevid:%d\n",
1074 : : entry->cmd_line ? "cmd" : "ivrs",
1075 : : entry->hid, entry->uid, entry->root_devid);
1076 : :
1077 : 0 : list_add_tail(&entry->list, list);
1078 : 0 : return 0;
1079 : : }
1080 : :
1081 : 0 : static int __init add_early_maps(void)
1082 : : {
1083 : 0 : int i, ret;
1084 : :
1085 [ # # ]: 0 : for (i = 0; i < early_ioapic_map_size; ++i) {
1086 : 0 : ret = add_special_device(IVHD_SPECIAL_IOAPIC,
1087 : 0 : early_ioapic_map[i].id,
1088 : : &early_ioapic_map[i].devid,
1089 : 0 : early_ioapic_map[i].cmd_line);
1090 [ # # ]: 0 : if (ret)
1091 : 0 : return ret;
1092 : : }
1093 : :
1094 [ # # ]: 0 : for (i = 0; i < early_hpet_map_size; ++i) {
1095 : 0 : ret = add_special_device(IVHD_SPECIAL_HPET,
1096 : 0 : early_hpet_map[i].id,
1097 : : &early_hpet_map[i].devid,
1098 : 0 : early_hpet_map[i].cmd_line);
1099 [ # # ]: 0 : if (ret)
1100 : 0 : return ret;
1101 : : }
1102 : :
1103 [ # # ]: 0 : for (i = 0; i < early_acpihid_map_size; ++i) {
1104 : 0 : ret = add_acpi_hid_device(early_acpihid_map[i].hid,
1105 : 0 : early_acpihid_map[i].uid,
1106 : : &early_acpihid_map[i].devid,
1107 : 0 : early_acpihid_map[i].cmd_line);
1108 [ # # ]: 0 : if (ret)
1109 : 0 : return ret;
1110 : : }
1111 : :
1112 : : return 0;
1113 : : }
1114 : :
1115 : : /*
1116 : : * Reads the device exclusion range from ACPI and initializes the IOMMU with
1117 : : * it
1118 : : */
1119 : 0 : static void __init set_device_exclusion_range(u16 devid, struct ivmd_header *m)
1120 : : {
1121 [ # # ]: 0 : if (!(m->flags & IVMD_FLAG_EXCL_RANGE))
1122 : : return;
1123 : :
1124 : : /*
1125 : : * Treat per-device exclusion ranges as r/w unity-mapped regions
1126 : : * since some buggy BIOSes might lead to the overwritten exclusion
1127 : : * range (exclusion_start and exclusion_length members). This
1128 : : * happens when there are multiple exclusion ranges (IVMD entries)
1129 : : * defined in ACPI table.
1130 : : */
1131 : 0 : m->flags = (IVMD_FLAG_IW | IVMD_FLAG_IR | IVMD_FLAG_UNITY_MAP);
1132 : : }
1133 : :
1134 : : /*
1135 : : * Takes a pointer to an AMD IOMMU entry in the ACPI table and
1136 : : * initializes the hardware and our data structures with it.
1137 : : */
1138 : 0 : static int __init init_iommu_from_acpi(struct amd_iommu *iommu,
1139 : : struct ivhd_header *h)
1140 : : {
1141 : 0 : u8 *p = (u8 *)h;
1142 : 0 : u8 *end = p, flags = 0;
1143 : 0 : u16 devid = 0, devid_start = 0, devid_to = 0;
1144 : 0 : u32 dev_i, ext_flags = 0;
1145 : 0 : bool alias = false;
1146 : 0 : struct ivhd_entry *e;
1147 : 0 : u32 ivhd_size;
1148 : 0 : int ret;
1149 : :
1150 : :
1151 : 0 : ret = add_early_maps();
1152 [ # # ]: 0 : if (ret)
1153 : : return ret;
1154 : :
1155 : 0 : amd_iommu_apply_ivrs_quirks();
1156 : :
1157 : : /*
1158 : : * First save the recommended feature enable bits from ACPI
1159 : : */
1160 : 0 : iommu->acpi_flags = h->flags;
1161 : :
1162 : : /*
1163 : : * Done. Now parse the device entries
1164 : : */
1165 [ # # # ]: 0 : ivhd_size = get_ivhd_header_size(h);
1166 : 0 : if (!ivhd_size) {
1167 : 0 : pr_err("Unsupported IVHD type %#x\n", h->type);
1168 : 0 : return -EINVAL;
1169 : : }
1170 : :
1171 : 0 : p += ivhd_size;
1172 : :
1173 : 0 : end += h->length;
1174 : :
1175 : :
1176 [ # # ]: 0 : while (p < end) {
1177 : 0 : e = (struct ivhd_entry *)p;
1178 [ # # # # : 0 : switch (e->type) {
# # # # #
# # ]
1179 : 0 : case IVHD_DEV_ALL:
1180 : :
1181 [ # # ]: 0 : DUMP_printk(" DEV_ALL\t\t\tflags: %02x\n", e->flags);
1182 : :
1183 [ # # ]: 0 : for (dev_i = 0; dev_i <= amd_iommu_last_bdf; ++dev_i)
1184 : 0 : set_dev_entry_from_acpi(iommu, dev_i, e->flags, 0);
1185 : : break;
1186 : 0 : case IVHD_DEV_SELECT:
1187 : :
1188 [ # # ]: 0 : DUMP_printk(" DEV_SELECT\t\t\t devid: %02x:%02x.%x "
1189 : : "flags: %02x\n",
1190 : : PCI_BUS_NUM(e->devid),
1191 : : PCI_SLOT(e->devid),
1192 : : PCI_FUNC(e->devid),
1193 : 0 : e->flags);
1194 : :
1195 : 0 : devid = e->devid;
1196 : 0 : set_dev_entry_from_acpi(iommu, devid, e->flags, 0);
1197 : 0 : break;
1198 : 0 : case IVHD_DEV_SELECT_RANGE_START:
1199 : :
1200 [ # # ]: 0 : DUMP_printk(" DEV_SELECT_RANGE_START\t "
1201 : : "devid: %02x:%02x.%x flags: %02x\n",
1202 : : PCI_BUS_NUM(e->devid),
1203 : : PCI_SLOT(e->devid),
1204 : : PCI_FUNC(e->devid),
1205 : 0 : e->flags);
1206 : :
1207 : 0 : devid_start = e->devid;
1208 : 0 : flags = e->flags;
1209 : 0 : ext_flags = 0;
1210 : 0 : alias = false;
1211 : 0 : break;
1212 : 0 : case IVHD_DEV_ALIAS:
1213 : :
1214 [ # # ]: 0 : DUMP_printk(" DEV_ALIAS\t\t\t devid: %02x:%02x.%x "
1215 : : "flags: %02x devid_to: %02x:%02x.%x\n",
1216 : : PCI_BUS_NUM(e->devid),
1217 : : PCI_SLOT(e->devid),
1218 : : PCI_FUNC(e->devid),
1219 : : e->flags,
1220 : : PCI_BUS_NUM(e->ext >> 8),
1221 : : PCI_SLOT(e->ext >> 8),
1222 : 0 : PCI_FUNC(e->ext >> 8));
1223 : :
1224 : 0 : devid = e->devid;
1225 : 0 : devid_to = e->ext >> 8;
1226 : 0 : set_dev_entry_from_acpi(iommu, devid , e->flags, 0);
1227 : 0 : set_dev_entry_from_acpi(iommu, devid_to, e->flags, 0);
1228 : 0 : amd_iommu_alias_table[devid] = devid_to;
1229 : 0 : break;
1230 : 0 : case IVHD_DEV_ALIAS_RANGE:
1231 : :
1232 [ # # ]: 0 : DUMP_printk(" DEV_ALIAS_RANGE\t\t "
1233 : : "devid: %02x:%02x.%x flags: %02x "
1234 : : "devid_to: %02x:%02x.%x\n",
1235 : : PCI_BUS_NUM(e->devid),
1236 : : PCI_SLOT(e->devid),
1237 : : PCI_FUNC(e->devid),
1238 : : e->flags,
1239 : : PCI_BUS_NUM(e->ext >> 8),
1240 : : PCI_SLOT(e->ext >> 8),
1241 : 0 : PCI_FUNC(e->ext >> 8));
1242 : :
1243 : 0 : devid_start = e->devid;
1244 : 0 : flags = e->flags;
1245 : 0 : devid_to = e->ext >> 8;
1246 : 0 : ext_flags = 0;
1247 : 0 : alias = true;
1248 : 0 : break;
1249 : 0 : case IVHD_DEV_EXT_SELECT:
1250 : :
1251 [ # # ]: 0 : DUMP_printk(" DEV_EXT_SELECT\t\t devid: %02x:%02x.%x "
1252 : : "flags: %02x ext: %08x\n",
1253 : : PCI_BUS_NUM(e->devid),
1254 : : PCI_SLOT(e->devid),
1255 : : PCI_FUNC(e->devid),
1256 : 0 : e->flags, e->ext);
1257 : :
1258 : 0 : devid = e->devid;
1259 : 0 : set_dev_entry_from_acpi(iommu, devid, e->flags,
1260 : : e->ext);
1261 : 0 : break;
1262 : 0 : case IVHD_DEV_EXT_SELECT_RANGE:
1263 : :
1264 [ # # ]: 0 : DUMP_printk(" DEV_EXT_SELECT_RANGE\t devid: "
1265 : : "%02x:%02x.%x flags: %02x ext: %08x\n",
1266 : : PCI_BUS_NUM(e->devid),
1267 : : PCI_SLOT(e->devid),
1268 : : PCI_FUNC(e->devid),
1269 : 0 : e->flags, e->ext);
1270 : :
1271 : 0 : devid_start = e->devid;
1272 : 0 : flags = e->flags;
1273 : 0 : ext_flags = e->ext;
1274 : 0 : alias = false;
1275 : 0 : break;
1276 : 0 : case IVHD_DEV_RANGE_END:
1277 : :
1278 [ # # ]: 0 : DUMP_printk(" DEV_RANGE_END\t\t devid: %02x:%02x.%x\n",
1279 : : PCI_BUS_NUM(e->devid),
1280 : : PCI_SLOT(e->devid),
1281 : 0 : PCI_FUNC(e->devid));
1282 : :
1283 : 0 : devid = e->devid;
1284 [ # # ]: 0 : for (dev_i = devid_start; dev_i <= devid; ++dev_i) {
1285 [ # # ]: 0 : if (alias) {
1286 : 0 : amd_iommu_alias_table[dev_i] = devid_to;
1287 : 0 : set_dev_entry_from_acpi(iommu,
1288 : : devid_to, flags, ext_flags);
1289 : : }
1290 : 0 : set_dev_entry_from_acpi(iommu, dev_i,
1291 : : flags, ext_flags);
1292 : : }
1293 : : break;
1294 : 0 : case IVHD_DEV_SPECIAL: {
1295 : 0 : u8 handle, type;
1296 : 0 : const char *var;
1297 : 0 : u16 devid;
1298 : 0 : int ret;
1299 : :
1300 : 0 : handle = e->ext & 0xff;
1301 : 0 : devid = (e->ext >> 8) & 0xffff;
1302 : 0 : type = (e->ext >> 24) & 0xff;
1303 : :
1304 [ # # ]: 0 : if (type == IVHD_SPECIAL_IOAPIC)
1305 : : var = "IOAPIC";
1306 [ # # ]: 0 : else if (type == IVHD_SPECIAL_HPET)
1307 : : var = "HPET";
1308 : : else
1309 : 0 : var = "UNKNOWN";
1310 : :
1311 [ # # ]: 0 : DUMP_printk(" DEV_SPECIAL(%s[%d])\t\tdevid: %02x:%02x.%x\n",
1312 : : var, (int)handle,
1313 : : PCI_BUS_NUM(devid),
1314 : : PCI_SLOT(devid),
1315 : 0 : PCI_FUNC(devid));
1316 : :
1317 : 0 : ret = add_special_device(type, handle, &devid, false);
1318 [ # # ]: 0 : if (ret)
1319 : 0 : return ret;
1320 : :
1321 : : /*
1322 : : * add_special_device might update the devid in case a
1323 : : * command-line override is present. So call
1324 : : * set_dev_entry_from_acpi after add_special_device.
1325 : : */
1326 : 0 : set_dev_entry_from_acpi(iommu, devid, e->flags, 0);
1327 : :
1328 : 0 : break;
1329 : : }
1330 : 0 : case IVHD_DEV_ACPI_HID: {
1331 : 0 : u16 devid;
1332 : 0 : u8 hid[ACPIHID_HID_LEN] = {0};
1333 : 0 : u8 uid[ACPIHID_UID_LEN] = {0};
1334 : 0 : int ret;
1335 : :
1336 [ # # ]: 0 : if (h->type != 0x40) {
1337 : 0 : pr_err(FW_BUG "Invalid IVHD device type %#x\n",
1338 : : e->type);
1339 : 0 : break;
1340 : : }
1341 : :
1342 : 0 : memcpy(hid, (u8 *)(&e->ext), ACPIHID_HID_LEN - 1);
1343 : 0 : hid[ACPIHID_HID_LEN - 1] = '\0';
1344 : :
1345 [ # # ]: 0 : if (!(*hid)) {
1346 : 0 : pr_err(FW_BUG "Invalid HID.\n");
1347 : 0 : break;
1348 : : }
1349 : :
1350 [ # # # # ]: 0 : switch (e->uidf) {
1351 : 0 : case UID_NOT_PRESENT:
1352 : :
1353 [ # # ]: 0 : if (e->uidl != 0)
1354 : 0 : pr_warn(FW_BUG "Invalid UID length.\n");
1355 : :
1356 : : break;
1357 : 0 : case UID_IS_INTEGER:
1358 : :
1359 : 0 : sprintf(uid, "%d", e->uid);
1360 : :
1361 : 0 : break;
1362 : 0 : case UID_IS_CHARACTER:
1363 : :
1364 : 0 : memcpy(uid, (u8 *)(&e->uid), ACPIHID_UID_LEN - 1);
1365 : 0 : uid[ACPIHID_UID_LEN - 1] = '\0';
1366 : :
1367 : 0 : break;
1368 : : default:
1369 : : break;
1370 : : }
1371 : :
1372 : 0 : devid = e->devid;
1373 [ # # ]: 0 : DUMP_printk(" DEV_ACPI_HID(%s[%s])\t\tdevid: %02x:%02x.%x\n",
1374 : : hid, uid,
1375 : : PCI_BUS_NUM(devid),
1376 : : PCI_SLOT(devid),
1377 : 0 : PCI_FUNC(devid));
1378 : :
1379 : 0 : flags = e->flags;
1380 : :
1381 : 0 : ret = add_acpi_hid_device(hid, uid, &devid, false);
1382 [ # # ]: 0 : if (ret)
1383 : 0 : return ret;
1384 : :
1385 : : /*
1386 : : * add_special_device might update the devid in case a
1387 : : * command-line override is present. So call
1388 : : * set_dev_entry_from_acpi after add_special_device.
1389 : : */
1390 : 0 : set_dev_entry_from_acpi(iommu, devid, e->flags, 0);
1391 : :
1392 : 0 : break;
1393 : : }
1394 : : default:
1395 : : break;
1396 : : }
1397 : :
1398 [ # # ]: 0 : p += ivhd_entry_length(p);
1399 : : }
1400 : :
1401 : : return 0;
1402 : : }
1403 : :
1404 : 0 : static void __init free_iommu_one(struct amd_iommu *iommu)
1405 : : {
1406 : 0 : free_command_buffer(iommu);
1407 : 0 : free_event_buffer(iommu);
1408 : 0 : free_ppr_log(iommu);
1409 : 0 : free_ga_log(iommu);
1410 : 0 : iommu_unmap_mmio_space(iommu);
1411 : 0 : }
1412 : :
1413 : 11 : static void __init free_iommu_all(void)
1414 : : {
1415 : 11 : struct amd_iommu *iommu, *next;
1416 : :
1417 [ - + ]: 11 : for_each_iommu_safe(iommu, next) {
1418 : 0 : list_del(&iommu->list);
1419 : 0 : free_iommu_one(iommu);
1420 : 0 : kfree(iommu);
1421 : : }
1422 : 11 : }
1423 : :
1424 : : /*
1425 : : * Family15h Model 10h-1fh erratum 746 (IOMMU Logging May Stall Translations)
1426 : : * Workaround:
1427 : : * BIOS should disable L2B micellaneous clock gating by setting
1428 : : * L2_L2B_CK_GATE_CONTROL[CKGateL2BMiscDisable](D0F2xF4_x90[2]) = 1b
1429 : : */
1430 : 0 : static void amd_iommu_erratum_746_workaround(struct amd_iommu *iommu)
1431 : : {
1432 : 0 : u32 value;
1433 : :
1434 [ # # ]: 0 : if ((boot_cpu_data.x86 != 0x15) ||
1435 [ # # # # ]: 0 : (boot_cpu_data.x86_model < 0x10) ||
1436 : : (boot_cpu_data.x86_model > 0x1f))
1437 : 0 : return;
1438 : :
1439 : 0 : pci_write_config_dword(iommu->dev, 0xf0, 0x90);
1440 : 0 : pci_read_config_dword(iommu->dev, 0xf4, &value);
1441 : :
1442 [ # # ]: 0 : if (value & BIT(2))
1443 : : return;
1444 : :
1445 : : /* Select NB indirect register 0x90 and enable writing */
1446 : 0 : pci_write_config_dword(iommu->dev, 0xf0, 0x90 | (1 << 8));
1447 : :
1448 : 0 : pci_write_config_dword(iommu->dev, 0xf4, value | 0x4);
1449 : 0 : pci_info(iommu->dev, "Applying erratum 746 workaround\n");
1450 : :
1451 : : /* Clear the enable writing bit */
1452 : 0 : pci_write_config_dword(iommu->dev, 0xf0, 0x90);
1453 : : }
1454 : :
1455 : : /*
1456 : : * Family15h Model 30h-3fh (IOMMU Mishandles ATS Write Permission)
1457 : : * Workaround:
1458 : : * BIOS should enable ATS write permission check by setting
1459 : : * L2_DEBUG_3[AtsIgnoreIWDis](D0F2xF4_x47[0]) = 1b
1460 : : */
1461 : 0 : static void amd_iommu_ats_write_check_workaround(struct amd_iommu *iommu)
1462 : : {
1463 : 0 : u32 value;
1464 : :
1465 [ # # ]: 0 : if ((boot_cpu_data.x86 != 0x15) ||
1466 [ # # # # ]: 0 : (boot_cpu_data.x86_model < 0x30) ||
1467 : : (boot_cpu_data.x86_model > 0x3f))
1468 : : return;
1469 : :
1470 : : /* Test L2_DEBUG_3[AtsIgnoreIWDis] == 1 */
1471 : 0 : value = iommu_read_l2(iommu, 0x47);
1472 : :
1473 [ # # ]: 0 : if (value & BIT(0))
1474 : : return;
1475 : :
1476 : : /* Set L2_DEBUG_3[AtsIgnoreIWDis] = 1 */
1477 : 0 : iommu_write_l2(iommu, 0x47, value | BIT(0));
1478 : :
1479 : 0 : pci_info(iommu->dev, "Applying ATS write check workaround\n");
1480 : : }
1481 : :
1482 : : /*
1483 : : * This function clues the initialization function for one IOMMU
1484 : : * together and also allocates the command buffer and programs the
1485 : : * hardware. It does NOT enable the IOMMU. This is done afterwards.
1486 : : */
1487 : 0 : static int __init init_iommu_one(struct amd_iommu *iommu, struct ivhd_header *h)
1488 : : {
1489 : 0 : int ret;
1490 : :
1491 : 0 : raw_spin_lock_init(&iommu->lock);
1492 : :
1493 : : /* Add IOMMU to internal data structures */
1494 [ # # ]: 0 : list_add_tail(&iommu->list, &amd_iommu_list);
1495 : 0 : iommu->index = amd_iommus_present++;
1496 : :
1497 [ # # ]: 0 : if (unlikely(iommu->index >= MAX_IOMMUS)) {
1498 : 0 : WARN(1, "System has more IOMMUs than supported by this driver\n");
1499 : 0 : return -ENOSYS;
1500 : : }
1501 : :
1502 : : /* Index is fine - add IOMMU to the array */
1503 : 0 : amd_iommus[iommu->index] = iommu;
1504 : :
1505 : : /*
1506 : : * Copy data from ACPI table entry to the iommu struct
1507 : : */
1508 : 0 : iommu->devid = h->devid;
1509 : 0 : iommu->cap_ptr = h->cap_ptr;
1510 : 0 : iommu->pci_seg = h->pci_seg;
1511 : 0 : iommu->mmio_phys = h->mmio_phys;
1512 : :
1513 [ # # # ]: 0 : switch (h->type) {
1514 : 0 : case 0x10:
1515 : : /* Check if IVHD EFR contains proper max banks/counters */
1516 [ # # ]: 0 : if ((h->efr_attr != 0) &&
1517 [ # # ]: 0 : ((h->efr_attr & (0xF << 13)) != 0) &&
1518 [ # # ]: 0 : ((h->efr_attr & (0x3F << 17)) != 0))
1519 : 0 : iommu->mmio_phys_end = MMIO_REG_END_OFFSET;
1520 : : else
1521 : 0 : iommu->mmio_phys_end = MMIO_CNTR_CONF_OFFSET;
1522 [ # # ]: 0 : if (((h->efr_attr & (0x1 << IOMMU_FEAT_GASUP_SHIFT)) == 0))
1523 : 0 : amd_iommu_guest_ir = AMD_IOMMU_GUEST_IR_LEGACY;
1524 : : break;
1525 : 0 : case 0x11:
1526 : : case 0x40:
1527 [ # # ]: 0 : if (h->efr_reg & (1 << 9))
1528 : 0 : iommu->mmio_phys_end = MMIO_REG_END_OFFSET;
1529 : : else
1530 : 0 : iommu->mmio_phys_end = MMIO_CNTR_CONF_OFFSET;
1531 [ # # ]: 0 : if (((h->efr_reg & (0x1 << IOMMU_EFR_GASUP_SHIFT)) == 0))
1532 : 0 : amd_iommu_guest_ir = AMD_IOMMU_GUEST_IR_LEGACY;
1533 : : /*
1534 : : * Note: Since iommu_update_intcapxt() leverages
1535 : : * the IOMMU MMIO access to MSI capability block registers
1536 : : * for MSI address lo/hi/data, we need to check both
1537 : : * EFR[XtSup] and EFR[MsiCapMmioSup] for x2APIC support.
1538 : : */
1539 [ # # ]: 0 : if ((h->efr_reg & BIT(IOMMU_EFR_XTSUP_SHIFT)) &&
1540 [ # # ]: 0 : (h->efr_reg & BIT(IOMMU_EFR_MSICAPMMIOSUP_SHIFT)))
1541 : 0 : amd_iommu_xt_mode = IRQ_REMAP_X2APIC_MODE;
1542 : : break;
1543 : : default:
1544 : : return -EINVAL;
1545 : : }
1546 : :
1547 : 0 : iommu->mmio_base = iommu_map_mmio_space(iommu->mmio_phys,
1548 : : iommu->mmio_phys_end);
1549 [ # # ]: 0 : if (!iommu->mmio_base)
1550 : : return -ENOMEM;
1551 : :
1552 [ # # ]: 0 : if (alloc_command_buffer(iommu))
1553 : : return -ENOMEM;
1554 : :
1555 [ # # ]: 0 : if (alloc_event_buffer(iommu))
1556 : : return -ENOMEM;
1557 : :
1558 : 0 : iommu->int_enabled = false;
1559 : :
1560 : 0 : init_translation_status(iommu);
1561 [ # # # # ]: 0 : if (translation_pre_enabled(iommu) && !is_kdump_kernel()) {
1562 : 0 : iommu_disable(iommu);
1563 : 0 : clear_translation_pre_enabled(iommu);
1564 : 0 : pr_warn("Translation was enabled for IOMMU:%d but we are not in kdump mode\n",
1565 : : iommu->index);
1566 : : }
1567 [ # # ]: 0 : if (amd_iommu_pre_enabled)
1568 : 0 : amd_iommu_pre_enabled = translation_pre_enabled(iommu);
1569 : :
1570 : 0 : ret = init_iommu_from_acpi(iommu, h);
1571 [ # # ]: 0 : if (ret)
1572 : : return ret;
1573 : :
1574 : 0 : ret = amd_iommu_create_irq_domain(iommu);
1575 : 0 : if (ret)
1576 : : return ret;
1577 : :
1578 : : /*
1579 : : * Make sure IOMMU is not considered to translate itself. The IVRS
1580 : : * table tells us so, but this is a lie!
1581 : : */
1582 : 0 : amd_iommu_rlookup_table[iommu->devid] = NULL;
1583 : :
1584 : 0 : return 0;
1585 : : }
1586 : :
1587 : : /**
1588 : : * get_highest_supported_ivhd_type - Look up the appropriate IVHD type
1589 : : * @ivrs Pointer to the IVRS header
1590 : : *
1591 : : * This function search through all IVDB of the maximum supported IVHD
1592 : : */
1593 : 0 : static u8 get_highest_supported_ivhd_type(struct acpi_table_header *ivrs)
1594 : : {
1595 : 0 : u8 *base = (u8 *)ivrs;
1596 : 0 : struct ivhd_header *ivhd = (struct ivhd_header *)
1597 : : (base + IVRS_HEADER_LENGTH);
1598 : 0 : u8 last_type = ivhd->type;
1599 : 0 : u16 devid = ivhd->devid;
1600 : :
1601 [ # # ]: 0 : while (((u8 *)ivhd - base < ivrs->length) &&
1602 [ # # ]: 0 : (ivhd->type <= ACPI_IVHD_TYPE_MAX_SUPPORTED)) {
1603 : 0 : u8 *p = (u8 *) ivhd;
1604 : :
1605 [ # # ]: 0 : if (ivhd->devid == devid)
1606 : 0 : last_type = ivhd->type;
1607 : 0 : ivhd = (struct ivhd_header *)(p + ivhd->length);
1608 : : }
1609 : :
1610 : 0 : return last_type;
1611 : : }
1612 : :
1613 : : /*
1614 : : * Iterates over all IOMMU entries in the ACPI table, allocates the
1615 : : * IOMMU structure and initializes it with init_iommu_one()
1616 : : */
1617 : 0 : static int __init init_iommu_all(struct acpi_table_header *table)
1618 : : {
1619 : 0 : u8 *p = (u8 *)table, *end = (u8 *)table;
1620 : 0 : struct ivhd_header *h;
1621 : 0 : struct amd_iommu *iommu;
1622 : 0 : int ret;
1623 : :
1624 : 0 : end += table->length;
1625 : 0 : p += IVRS_HEADER_LENGTH;
1626 : :
1627 [ # # ]: 0 : while (p < end) {
1628 : 0 : h = (struct ivhd_header *)p;
1629 [ # # ]: 0 : if (*p == amd_iommu_target_ivhd_type) {
1630 : :
1631 [ # # ]: 0 : DUMP_printk("device: %02x:%02x.%01x cap: %04x "
1632 : : "seg: %d flags: %01x info %04x\n",
1633 : : PCI_BUS_NUM(h->devid), PCI_SLOT(h->devid),
1634 : : PCI_FUNC(h->devid), h->cap_ptr,
1635 : 0 : h->pci_seg, h->flags, h->info);
1636 [ # # ]: 0 : DUMP_printk(" mmio-addr: %016llx\n",
1637 : 0 : h->mmio_phys);
1638 : :
1639 : 0 : iommu = kzalloc(sizeof(struct amd_iommu), GFP_KERNEL);
1640 [ # # ]: 0 : if (iommu == NULL)
1641 : : return -ENOMEM;
1642 : :
1643 : 0 : ret = init_iommu_one(iommu, h);
1644 [ # # ]: 0 : if (ret)
1645 : 0 : return ret;
1646 : : }
1647 : 0 : p += h->length;
1648 : :
1649 : : }
1650 [ # # ]: 0 : WARN_ON(p != end);
1651 : :
1652 : : return 0;
1653 : : }
1654 : :
1655 : : static int iommu_pc_get_set_reg(struct amd_iommu *iommu, u8 bank, u8 cntr,
1656 : : u8 fxn, u64 *value, bool is_write);
1657 : :
1658 : 0 : static void init_iommu_perf_ctr(struct amd_iommu *iommu)
1659 : : {
1660 : 0 : struct pci_dev *pdev = iommu->dev;
1661 : 0 : u64 val = 0xabcd, val2 = 0, save_reg = 0;
1662 : :
1663 [ # # # # ]: 0 : if (!iommu_feature(iommu, FEATURE_PC))
1664 : : return;
1665 : :
1666 : 0 : amd_iommu_pc_present = true;
1667 : :
1668 : : /* save the value to restore, if writable */
1669 [ # # ]: 0 : if (iommu_pc_get_set_reg(iommu, 0, 0, 0, &save_reg, false))
1670 : 0 : goto pc_false;
1671 : :
1672 : : /* Check if the performance counters can be written to */
1673 [ # # # # ]: 0 : if ((iommu_pc_get_set_reg(iommu, 0, 0, 0, &val, true)) ||
1674 : 0 : (iommu_pc_get_set_reg(iommu, 0, 0, 0, &val2, false)) ||
1675 [ # # ]: 0 : (val != val2))
1676 : 0 : goto pc_false;
1677 : :
1678 : : /* restore */
1679 [ # # ]: 0 : if (iommu_pc_get_set_reg(iommu, 0, 0, 0, &save_reg, true))
1680 : 0 : goto pc_false;
1681 : :
1682 : 0 : pci_info(pdev, "IOMMU performance counters supported\n");
1683 : :
1684 : 0 : val = readl(iommu->mmio_base + MMIO_CNTR_CONF_OFFSET);
1685 : 0 : iommu->max_banks = (u8) ((val >> 12) & 0x3f);
1686 : 0 : iommu->max_counters = (u8) ((val >> 7) & 0xf);
1687 : :
1688 : 0 : return;
1689 : :
1690 : 0 : pc_false:
1691 : 0 : pci_err(pdev, "Unable to read/write to IOMMU perf counter.\n");
1692 : 0 : amd_iommu_pc_present = false;
1693 : 0 : return;
1694 : : }
1695 : :
1696 : 0 : static ssize_t amd_iommu_show_cap(struct device *dev,
1697 : : struct device_attribute *attr,
1698 : : char *buf)
1699 : : {
1700 : 0 : struct amd_iommu *iommu = dev_to_amd_iommu(dev);
1701 : 0 : return sprintf(buf, "%x\n", iommu->cap);
1702 : : }
1703 : : static DEVICE_ATTR(cap, S_IRUGO, amd_iommu_show_cap, NULL);
1704 : :
1705 : 0 : static ssize_t amd_iommu_show_features(struct device *dev,
1706 : : struct device_attribute *attr,
1707 : : char *buf)
1708 : : {
1709 : 0 : struct amd_iommu *iommu = dev_to_amd_iommu(dev);
1710 : 0 : return sprintf(buf, "%llx\n", iommu->features);
1711 : : }
1712 : : static DEVICE_ATTR(features, S_IRUGO, amd_iommu_show_features, NULL);
1713 : :
1714 : : static struct attribute *amd_iommu_attrs[] = {
1715 : : &dev_attr_cap.attr,
1716 : : &dev_attr_features.attr,
1717 : : NULL,
1718 : : };
1719 : :
1720 : : static struct attribute_group amd_iommu_group = {
1721 : : .name = "amd-iommu",
1722 : : .attrs = amd_iommu_attrs,
1723 : : };
1724 : :
1725 : : static const struct attribute_group *amd_iommu_groups[] = {
1726 : : &amd_iommu_group,
1727 : : NULL,
1728 : : };
1729 : :
1730 : 0 : static int __init iommu_init_pci(struct amd_iommu *iommu)
1731 : : {
1732 : 0 : int cap_ptr = iommu->cap_ptr;
1733 : 0 : int ret;
1734 : :
1735 : 0 : iommu->dev = pci_get_domain_bus_and_slot(0, PCI_BUS_NUM(iommu->devid),
1736 : 0 : iommu->devid & 0xff);
1737 [ # # ]: 0 : if (!iommu->dev)
1738 : : return -ENODEV;
1739 : :
1740 : : /* Prevent binding other PCI device drivers to IOMMU devices */
1741 : 0 : iommu->dev->match_driver = false;
1742 : :
1743 : 0 : pci_read_config_dword(iommu->dev, cap_ptr + MMIO_CAP_HDR_OFFSET,
1744 : : &iommu->cap);
1745 : :
1746 [ # # ]: 0 : if (!(iommu->cap & (1 << IOMMU_CAP_IOTLB)))
1747 : 0 : amd_iommu_iotlb_sup = false;
1748 : :
1749 : : /* read extended feature bits */
1750 : 0 : iommu->features = readq(iommu->mmio_base + MMIO_EXT_FEATURES);
1751 : :
1752 [ # # # # ]: 0 : if (iommu_feature(iommu, FEATURE_GT)) {
1753 : 0 : int glxval;
1754 : 0 : u32 max_pasid;
1755 : 0 : u64 pasmax;
1756 : :
1757 : 0 : pasmax = iommu->features & FEATURE_PASID_MASK;
1758 : 0 : pasmax >>= FEATURE_PASID_SHIFT;
1759 : 0 : max_pasid = (1 << (pasmax + 1)) - 1;
1760 : :
1761 : 0 : amd_iommu_max_pasid = min(amd_iommu_max_pasid, max_pasid);
1762 : :
1763 [ # # ]: 0 : BUG_ON(amd_iommu_max_pasid & ~PASID_MASK);
1764 : :
1765 : 0 : glxval = iommu->features & FEATURE_GLXVAL_MASK;
1766 : 0 : glxval >>= FEATURE_GLXVAL_SHIFT;
1767 : :
1768 [ # # ]: 0 : if (amd_iommu_max_glx_val == -1)
1769 : 0 : amd_iommu_max_glx_val = glxval;
1770 : : else
1771 : 0 : amd_iommu_max_glx_val = min(amd_iommu_max_glx_val, glxval);
1772 : : }
1773 : :
1774 [ # # # # : 0 : if (iommu_feature(iommu, FEATURE_GT) &&
# # ]
1775 : : iommu_feature(iommu, FEATURE_PPR)) {
1776 : 0 : iommu->is_iommu_v2 = true;
1777 : 0 : amd_iommu_v2_present = true;
1778 : : }
1779 : :
1780 [ # # # # : 0 : if (iommu_feature(iommu, FEATURE_PPR) && alloc_ppr_log(iommu))
# # ]
1781 : : return -ENOMEM;
1782 : :
1783 : 0 : ret = iommu_init_ga(iommu);
1784 : 0 : if (ret)
1785 : : return ret;
1786 : :
1787 [ # # ]: 0 : if (iommu->cap & (1UL << IOMMU_CAP_NPCACHE))
1788 : 0 : amd_iommu_np_cache = true;
1789 : :
1790 : 0 : init_iommu_perf_ctr(iommu);
1791 : :
1792 [ # # ]: 0 : if (is_rd890_iommu(iommu->dev)) {
1793 : 0 : int i, j;
1794 : :
1795 : 0 : iommu->root_pdev =
1796 : 0 : pci_get_domain_bus_and_slot(0, iommu->dev->bus->number,
1797 : : PCI_DEVFN(0, 0));
1798 : :
1799 : : /*
1800 : : * Some rd890 systems may not be fully reconfigured by the
1801 : : * BIOS, so it's necessary for us to store this information so
1802 : : * it can be reprogrammed on resume
1803 : : */
1804 : 0 : pci_read_config_dword(iommu->dev, iommu->cap_ptr + 4,
1805 : : &iommu->stored_addr_lo);
1806 : 0 : pci_read_config_dword(iommu->dev, iommu->cap_ptr + 8,
1807 : : &iommu->stored_addr_hi);
1808 : :
1809 : : /* Low bit locks writes to configuration space */
1810 : 0 : iommu->stored_addr_lo &= ~1;
1811 : :
1812 [ # # ]: 0 : for (i = 0; i < 6; i++)
1813 [ # # ]: 0 : for (j = 0; j < 0x12; j++)
1814 : 0 : iommu->stored_l1[i][j] = iommu_read_l1(iommu, i, j);
1815 : :
1816 [ # # ]: 0 : for (i = 0; i < 0x83; i++)
1817 : 0 : iommu->stored_l2[i] = iommu_read_l2(iommu, i);
1818 : : }
1819 : :
1820 : 0 : amd_iommu_erratum_746_workaround(iommu);
1821 : 0 : amd_iommu_ats_write_check_workaround(iommu);
1822 : :
1823 : 0 : iommu_device_sysfs_add(&iommu->iommu, &iommu->dev->dev,
1824 : : amd_iommu_groups, "ivhd%d", iommu->index);
1825 : 0 : iommu_device_set_ops(&iommu->iommu, &amd_iommu_ops);
1826 : 0 : iommu_device_register(&iommu->iommu);
1827 : :
1828 : 0 : return pci_enable_device(iommu->dev);
1829 : : }
1830 : :
1831 : 0 : static void print_iommu_info(void)
1832 : : {
1833 : 0 : static const char * const feat_str[] = {
1834 : : "PreF", "PPR", "X2APIC", "NX", "GT", "[5]",
1835 : : "IA", "GA", "HE", "PC"
1836 : : };
1837 : 0 : struct amd_iommu *iommu;
1838 : :
1839 [ # # ]: 0 : for_each_iommu(iommu) {
1840 : 0 : struct pci_dev *pdev = iommu->dev;
1841 : 0 : int i;
1842 : :
1843 : 0 : pci_info(pdev, "Found IOMMU cap 0x%hx\n", iommu->cap_ptr);
1844 : :
1845 [ # # ]: 0 : if (iommu->cap & (1 << IOMMU_CAP_EFR)) {
1846 : 0 : pci_info(pdev, "Extended features (%#llx):\n",
1847 : : iommu->features);
1848 [ # # ]: 0 : for (i = 0; i < ARRAY_SIZE(feat_str); ++i) {
1849 [ # # # # ]: 0 : if (iommu_feature(iommu, (1ULL << i)))
1850 : 0 : pr_cont(" %s", feat_str[i]);
1851 : : }
1852 : :
1853 [ # # ]: 0 : if (iommu->features & FEATURE_GAM_VAPIC)
1854 : 0 : pr_cont(" GA_vAPIC");
1855 : :
1856 : 0 : pr_cont("\n");
1857 : : }
1858 : : }
1859 : 0 : if (irq_remapping_enabled) {
1860 : : pr_info("Interrupt remapping enabled\n");
1861 : : if (AMD_IOMMU_GUEST_IR_VAPIC(amd_iommu_guest_ir))
1862 : : pr_info("Virtual APIC enabled\n");
1863 : : if (amd_iommu_xt_mode == IRQ_REMAP_X2APIC_MODE)
1864 : : pr_info("X2APIC enabled\n");
1865 : : }
1866 : 0 : }
1867 : :
1868 : 0 : static int __init amd_iommu_init_pci(void)
1869 : : {
1870 : 0 : struct amd_iommu *iommu;
1871 : 0 : int ret = 0;
1872 : :
1873 [ # # ]: 0 : for_each_iommu(iommu) {
1874 : 0 : ret = iommu_init_pci(iommu);
1875 [ # # ]: 0 : if (ret)
1876 : : break;
1877 : : }
1878 : :
1879 : : /*
1880 : : * Order is important here to make sure any unity map requirements are
1881 : : * fulfilled. The unity mappings are created and written to the device
1882 : : * table during the amd_iommu_init_api() call.
1883 : : *
1884 : : * After that we call init_device_table_dma() to make sure any
1885 : : * uninitialized DTE will block DMA, and in the end we flush the caches
1886 : : * of all IOMMUs to make sure the changes to the device table are
1887 : : * active.
1888 : : */
1889 : 0 : ret = amd_iommu_init_api();
1890 : :
1891 : 0 : init_device_table_dma();
1892 : :
1893 [ # # ]: 0 : for_each_iommu(iommu)
1894 : 0 : iommu_flush_all_caches(iommu);
1895 : :
1896 [ # # ]: 0 : if (!ret)
1897 : 0 : print_iommu_info();
1898 : :
1899 : 0 : return ret;
1900 : : }
1901 : :
1902 : : /****************************************************************************
1903 : : *
1904 : : * The following functions initialize the MSI interrupts for all IOMMUs
1905 : : * in the system. It's a bit challenging because there could be multiple
1906 : : * IOMMUs per PCI BDF but we can call pci_enable_msi(x) only once per
1907 : : * pci_dev.
1908 : : *
1909 : : ****************************************************************************/
1910 : :
1911 : 0 : static int iommu_setup_msi(struct amd_iommu *iommu)
1912 : : {
1913 : 0 : int r;
1914 : :
1915 : 0 : r = pci_enable_msi(iommu->dev);
1916 [ # # ]: 0 : if (r)
1917 : : return r;
1918 : :
1919 : 0 : r = request_threaded_irq(iommu->dev->irq,
1920 : : amd_iommu_int_handler,
1921 : : amd_iommu_int_thread,
1922 : : 0, "AMD-Vi",
1923 : : iommu);
1924 : :
1925 [ # # ]: 0 : if (r) {
1926 : 0 : pci_disable_msi(iommu->dev);
1927 : 0 : return r;
1928 : : }
1929 : :
1930 : 0 : iommu->int_enabled = true;
1931 : :
1932 : 0 : return 0;
1933 : : }
1934 : :
1935 : : #define XT_INT_DEST_MODE(x) (((x) & 0x1ULL) << 2)
1936 : : #define XT_INT_DEST_LO(x) (((x) & 0xFFFFFFULL) << 8)
1937 : : #define XT_INT_VEC(x) (((x) & 0xFFULL) << 32)
1938 : : #define XT_INT_DEST_HI(x) ((((x) >> 24) & 0xFFULL) << 56)
1939 : :
1940 : : /**
1941 : : * Setup the IntCapXT registers with interrupt routing information
1942 : : * based on the PCI MSI capability block registers, accessed via
1943 : : * MMIO MSI address low/hi and MSI data registers.
1944 : : */
1945 : 0 : static void iommu_update_intcapxt(struct amd_iommu *iommu)
1946 : : {
1947 : 0 : u64 val;
1948 : 0 : u32 addr_lo = readl(iommu->mmio_base + MMIO_MSI_ADDR_LO_OFFSET);
1949 : 0 : u32 addr_hi = readl(iommu->mmio_base + MMIO_MSI_ADDR_HI_OFFSET);
1950 : 0 : u32 data = readl(iommu->mmio_base + MMIO_MSI_DATA_OFFSET);
1951 : 0 : bool dm = (addr_lo >> MSI_ADDR_DEST_MODE_SHIFT) & 0x1;
1952 : 0 : u32 dest = ((addr_lo >> MSI_ADDR_DEST_ID_SHIFT) & 0xFF);
1953 : :
1954 : 0 : if (x2apic_enabled())
1955 : : dest |= MSI_ADDR_EXT_DEST_ID(addr_hi);
1956 : :
1957 : 0 : val = XT_INT_VEC(data & 0xFF) |
1958 : 0 : XT_INT_DEST_MODE(dm) |
1959 : 0 : XT_INT_DEST_LO(dest) |
1960 : : XT_INT_DEST_HI(dest);
1961 : :
1962 : : /**
1963 : : * Current IOMMU implemtation uses the same IRQ for all
1964 : : * 3 IOMMU interrupts.
1965 : : */
1966 : 0 : writeq(val, iommu->mmio_base + MMIO_INTCAPXT_EVT_OFFSET);
1967 : 0 : writeq(val, iommu->mmio_base + MMIO_INTCAPXT_PPR_OFFSET);
1968 : 0 : writeq(val, iommu->mmio_base + MMIO_INTCAPXT_GALOG_OFFSET);
1969 : 0 : }
1970 : :
1971 : 0 : static void _irq_notifier_notify(struct irq_affinity_notify *notify,
1972 : : const cpumask_t *mask)
1973 : : {
1974 : 0 : struct amd_iommu *iommu;
1975 : :
1976 [ # # ]: 0 : for_each_iommu(iommu) {
1977 [ # # ]: 0 : if (iommu->dev->irq == notify->irq) {
1978 : 0 : iommu_update_intcapxt(iommu);
1979 : 0 : break;
1980 : : }
1981 : : }
1982 : 0 : }
1983 : :
1984 : 0 : static void _irq_notifier_release(struct kref *ref)
1985 : : {
1986 : 0 : }
1987 : :
1988 : 0 : static int iommu_init_intcapxt(struct amd_iommu *iommu)
1989 : : {
1990 : 0 : int ret;
1991 : 0 : struct irq_affinity_notify *notify = &iommu->intcapxt_notify;
1992 : :
1993 : : /**
1994 : : * IntCapXT requires XTSup=1 and MsiCapMmioSup=1,
1995 : : * which can be inferred from amd_iommu_xt_mode.
1996 : : */
1997 [ # # ]: 0 : if (amd_iommu_xt_mode != IRQ_REMAP_X2APIC_MODE)
1998 : : return 0;
1999 : :
2000 : : /**
2001 : : * Also, we need to setup notifier to update the IntCapXT registers
2002 : : * whenever the irq affinity is changed from user-space.
2003 : : */
2004 : 0 : notify->irq = iommu->dev->irq;
2005 : 0 : notify->notify = _irq_notifier_notify,
2006 : 0 : notify->release = _irq_notifier_release,
2007 : 0 : ret = irq_set_affinity_notifier(iommu->dev->irq, notify);
2008 [ # # ]: 0 : if (ret) {
2009 : 0 : pr_err("Failed to register irq affinity notifier (devid=%#x, irq %d)\n",
2010 : : iommu->devid, iommu->dev->irq);
2011 : 0 : return ret;
2012 : : }
2013 : :
2014 : 0 : iommu_update_intcapxt(iommu);
2015 : 0 : iommu_feature_enable(iommu, CONTROL_INTCAPXT_EN);
2016 : 0 : return ret;
2017 : : }
2018 : :
2019 : 0 : static int iommu_init_msi(struct amd_iommu *iommu)
2020 : : {
2021 : 0 : int ret;
2022 : :
2023 [ # # ]: 0 : if (iommu->int_enabled)
2024 : 0 : goto enable_faults;
2025 : :
2026 [ # # ]: 0 : if (iommu->dev->msi_cap)
2027 : 0 : ret = iommu_setup_msi(iommu);
2028 : : else
2029 : : ret = -ENODEV;
2030 : :
2031 [ # # ]: 0 : if (ret)
2032 : 0 : return ret;
2033 : :
2034 : 0 : enable_faults:
2035 : 0 : ret = iommu_init_intcapxt(iommu);
2036 [ # # ]: 0 : if (ret)
2037 : : return ret;
2038 : :
2039 : 0 : iommu_feature_enable(iommu, CONTROL_EVT_INT_EN);
2040 : :
2041 [ # # ]: 0 : if (iommu->ppr_log != NULL)
2042 : 0 : iommu_feature_enable(iommu, CONTROL_PPRINT_EN);
2043 : :
2044 : : iommu_ga_log_enable(iommu);
2045 : :
2046 : : return 0;
2047 : : }
2048 : :
2049 : : /****************************************************************************
2050 : : *
2051 : : * The next functions belong to the third pass of parsing the ACPI
2052 : : * table. In this last pass the memory mapping requirements are
2053 : : * gathered (like exclusion and unity mapping ranges).
2054 : : *
2055 : : ****************************************************************************/
2056 : :
2057 : 11 : static void __init free_unity_maps(void)
2058 : : {
2059 : 11 : struct unity_map_entry *entry, *next;
2060 : :
2061 [ - + ]: 11 : list_for_each_entry_safe(entry, next, &amd_iommu_unity_map, list) {
2062 : 0 : list_del(&entry->list);
2063 : 0 : kfree(entry);
2064 : : }
2065 : 11 : }
2066 : :
2067 : : /* called when we find an exclusion range definition in ACPI */
2068 : 0 : static int __init init_exclusion_range(struct ivmd_header *m)
2069 : : {
2070 : 0 : int i;
2071 : :
2072 [ # # # # ]: 0 : switch (m->type) {
2073 : 0 : case ACPI_IVMD_TYPE:
2074 : 0 : set_device_exclusion_range(m->devid, m);
2075 : 0 : break;
2076 : : case ACPI_IVMD_TYPE_ALL:
2077 [ # # ]: 0 : for (i = 0; i <= amd_iommu_last_bdf; ++i)
2078 : 0 : set_device_exclusion_range(i, m);
2079 : : break;
2080 : 0 : case ACPI_IVMD_TYPE_RANGE:
2081 [ # # ]: 0 : for (i = m->devid; i <= m->aux; ++i)
2082 : 0 : set_device_exclusion_range(i, m);
2083 : : break;
2084 : : default:
2085 : : break;
2086 : : }
2087 : :
2088 : 0 : return 0;
2089 : : }
2090 : :
2091 : : /* called for unity map ACPI definition */
2092 : 0 : static int __init init_unity_map_range(struct ivmd_header *m)
2093 : : {
2094 : 0 : struct unity_map_entry *e = NULL;
2095 : 0 : char *s;
2096 : :
2097 : 0 : e = kzalloc(sizeof(*e), GFP_KERNEL);
2098 [ # # ]: 0 : if (e == NULL)
2099 : : return -ENOMEM;
2100 : :
2101 [ # # ]: 0 : if (m->flags & IVMD_FLAG_EXCL_RANGE)
2102 : 0 : init_exclusion_range(m);
2103 : :
2104 [ # # # # ]: 0 : switch (m->type) {
2105 : 0 : default:
2106 : 0 : kfree(e);
2107 : 0 : return 0;
2108 : 0 : case ACPI_IVMD_TYPE:
2109 : 0 : s = "IVMD_TYPEi\t\t\t";
2110 : 0 : e->devid_start = e->devid_end = m->devid;
2111 : 0 : break;
2112 : 0 : case ACPI_IVMD_TYPE_ALL:
2113 : 0 : s = "IVMD_TYPE_ALL\t\t";
2114 : 0 : e->devid_start = 0;
2115 : 0 : e->devid_end = amd_iommu_last_bdf;
2116 : 0 : break;
2117 : 0 : case ACPI_IVMD_TYPE_RANGE:
2118 : 0 : s = "IVMD_TYPE_RANGE\t\t";
2119 : 0 : e->devid_start = m->devid;
2120 : 0 : e->devid_end = m->aux;
2121 : 0 : break;
2122 : : }
2123 : 0 : e->address_start = PAGE_ALIGN(m->range_start);
2124 : 0 : e->address_end = e->address_start + PAGE_ALIGN(m->range_length);
2125 : 0 : e->prot = m->flags >> 1;
2126 : :
2127 [ # # ]: 0 : DUMP_printk("%s devid_start: %02x:%02x.%x devid_end: %02x:%02x.%x"
2128 : : " range_start: %016llx range_end: %016llx flags: %x\n", s,
2129 : : PCI_BUS_NUM(e->devid_start), PCI_SLOT(e->devid_start),
2130 : : PCI_FUNC(e->devid_start), PCI_BUS_NUM(e->devid_end),
2131 : : PCI_SLOT(e->devid_end), PCI_FUNC(e->devid_end),
2132 : 0 : e->address_start, e->address_end, m->flags);
2133 : :
2134 : 0 : list_add_tail(&e->list, &amd_iommu_unity_map);
2135 : :
2136 : 0 : return 0;
2137 : : }
2138 : :
2139 : : /* iterates over all memory definitions we find in the ACPI table */
2140 : 0 : static int __init init_memory_definitions(struct acpi_table_header *table)
2141 : : {
2142 : 0 : u8 *p = (u8 *)table, *end = (u8 *)table;
2143 : 0 : struct ivmd_header *m;
2144 : :
2145 : 0 : end += table->length;
2146 : 0 : p += IVRS_HEADER_LENGTH;
2147 : :
2148 [ # # ]: 0 : while (p < end) {
2149 : 0 : m = (struct ivmd_header *)p;
2150 [ # # ]: 0 : if (m->flags & (IVMD_FLAG_UNITY_MAP | IVMD_FLAG_EXCL_RANGE))
2151 : 0 : init_unity_map_range(m);
2152 : :
2153 : 0 : p += m->length;
2154 : : }
2155 : :
2156 : 0 : return 0;
2157 : : }
2158 : :
2159 : : /*
2160 : : * Init the device table to not allow DMA access for devices
2161 : : */
2162 : 0 : static void init_device_table_dma(void)
2163 : : {
2164 : 0 : u32 devid;
2165 : :
2166 [ # # ]: 0 : for (devid = 0; devid <= amd_iommu_last_bdf; ++devid) {
2167 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_VALID);
2168 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_TRANSLATION);
2169 : : }
2170 : : }
2171 : :
2172 : : static void __init uninit_device_table_dma(void)
2173 : : {
2174 : : u32 devid;
2175 : :
2176 : : for (devid = 0; devid <= amd_iommu_last_bdf; ++devid) {
2177 : : amd_iommu_dev_table[devid].data[0] = 0ULL;
2178 : : amd_iommu_dev_table[devid].data[1] = 0ULL;
2179 : : }
2180 : : }
2181 : :
2182 : 0 : static void init_device_table(void)
2183 : : {
2184 : 0 : u32 devid;
2185 : :
2186 : 0 : if (!amd_iommu_irq_remap)
2187 : : return;
2188 : :
2189 [ # # ]: 0 : for (devid = 0; devid <= amd_iommu_last_bdf; ++devid)
2190 : 0 : set_dev_entry_bit(devid, DEV_ENTRY_IRQ_TBL_EN);
2191 : : }
2192 : :
2193 : 0 : static void iommu_init_flags(struct amd_iommu *iommu)
2194 : : {
2195 : 0 : iommu->acpi_flags & IVHD_FLAG_HT_TUN_EN_MASK ?
2196 [ # # ]: 0 : iommu_feature_enable(iommu, CONTROL_HT_TUN_EN) :
2197 : : iommu_feature_disable(iommu, CONTROL_HT_TUN_EN);
2198 : :
2199 : 0 : iommu->acpi_flags & IVHD_FLAG_PASSPW_EN_MASK ?
2200 [ # # ]: 0 : iommu_feature_enable(iommu, CONTROL_PASSPW_EN) :
2201 : : iommu_feature_disable(iommu, CONTROL_PASSPW_EN);
2202 : :
2203 : 0 : iommu->acpi_flags & IVHD_FLAG_RESPASSPW_EN_MASK ?
2204 [ # # ]: 0 : iommu_feature_enable(iommu, CONTROL_RESPASSPW_EN) :
2205 : : iommu_feature_disable(iommu, CONTROL_RESPASSPW_EN);
2206 : :
2207 : 0 : iommu->acpi_flags & IVHD_FLAG_ISOC_EN_MASK ?
2208 [ # # ]: 0 : iommu_feature_enable(iommu, CONTROL_ISOC_EN) :
2209 : : iommu_feature_disable(iommu, CONTROL_ISOC_EN);
2210 : :
2211 : : /*
2212 : : * make IOMMU memory accesses cache coherent
2213 : : */
2214 : 0 : iommu_feature_enable(iommu, CONTROL_COHERENT_EN);
2215 : :
2216 : : /* Set IOTLB invalidation timeout to 1s */
2217 : 0 : iommu_set_inv_tlb_timeout(iommu, CTRL_INV_TO_1S);
2218 : 0 : }
2219 : :
2220 : 0 : static void iommu_apply_resume_quirks(struct amd_iommu *iommu)
2221 : : {
2222 : 0 : int i, j;
2223 : 0 : u32 ioc_feature_control;
2224 : 0 : struct pci_dev *pdev = iommu->root_pdev;
2225 : :
2226 : : /* RD890 BIOSes may not have completely reconfigured the iommu */
2227 [ # # # # ]: 0 : if (!is_rd890_iommu(iommu->dev) || !pdev)
2228 : 0 : return;
2229 : :
2230 : : /*
2231 : : * First, we need to ensure that the iommu is enabled. This is
2232 : : * controlled by a register in the northbridge
2233 : : */
2234 : :
2235 : : /* Select Northbridge indirect register 0x75 and enable writing */
2236 : 0 : pci_write_config_dword(pdev, 0x60, 0x75 | (1 << 7));
2237 : 0 : pci_read_config_dword(pdev, 0x64, &ioc_feature_control);
2238 : :
2239 : : /* Enable the iommu */
2240 [ # # ]: 0 : if (!(ioc_feature_control & 0x1))
2241 : 0 : pci_write_config_dword(pdev, 0x64, ioc_feature_control | 1);
2242 : :
2243 : : /* Restore the iommu BAR */
2244 : 0 : pci_write_config_dword(iommu->dev, iommu->cap_ptr + 4,
2245 : : iommu->stored_addr_lo);
2246 : 0 : pci_write_config_dword(iommu->dev, iommu->cap_ptr + 8,
2247 : : iommu->stored_addr_hi);
2248 : :
2249 : : /* Restore the l1 indirect regs for each of the 6 l1s */
2250 [ # # ]: 0 : for (i = 0; i < 6; i++)
2251 [ # # ]: 0 : for (j = 0; j < 0x12; j++)
2252 : 0 : iommu_write_l1(iommu, i, j, iommu->stored_l1[i][j]);
2253 : :
2254 : : /* Restore the l2 indirect regs */
2255 [ # # ]: 0 : for (i = 0; i < 0x83; i++)
2256 : 0 : iommu_write_l2(iommu, i, iommu->stored_l2[i]);
2257 : :
2258 : : /* Lock PCI setup registers */
2259 : 0 : pci_write_config_dword(iommu->dev, iommu->cap_ptr + 4,
2260 : 0 : iommu->stored_addr_lo | 1);
2261 : : }
2262 : :
2263 : 0 : static void iommu_enable_ga(struct amd_iommu *iommu)
2264 : : {
2265 : : #ifdef CONFIG_IRQ_REMAP
2266 : : switch (amd_iommu_guest_ir) {
2267 : : case AMD_IOMMU_GUEST_IR_VAPIC:
2268 : : iommu_feature_enable(iommu, CONTROL_GAM_EN);
2269 : : /* Fall through */
2270 : : case AMD_IOMMU_GUEST_IR_LEGACY_GA:
2271 : : iommu_feature_enable(iommu, CONTROL_GA_EN);
2272 : : iommu->irte_ops = &irte_128_ops;
2273 : : break;
2274 : : default:
2275 : : iommu->irte_ops = &irte_32_ops;
2276 : : break;
2277 : : }
2278 : : #endif
2279 : 0 : }
2280 : :
2281 : 0 : static void early_enable_iommu(struct amd_iommu *iommu)
2282 : : {
2283 : 0 : iommu_disable(iommu);
2284 : 0 : iommu_init_flags(iommu);
2285 : 0 : iommu_set_device_table(iommu);
2286 : 0 : iommu_enable_command_buffer(iommu);
2287 : 0 : iommu_enable_event_buffer(iommu);
2288 : 0 : iommu_set_exclusion_range(iommu);
2289 : 0 : iommu_enable_ga(iommu);
2290 : 0 : iommu_enable_xt(iommu);
2291 : 0 : iommu_enable(iommu);
2292 : 0 : iommu_flush_all_caches(iommu);
2293 : 0 : }
2294 : :
2295 : : /*
2296 : : * This function finally enables all IOMMUs found in the system after
2297 : : * they have been initialized.
2298 : : *
2299 : : * Or if in kdump kernel and IOMMUs are all pre-enabled, try to copy
2300 : : * the old content of device table entries. Not this case or copy failed,
2301 : : * just continue as normal kernel does.
2302 : : */
2303 : 0 : static void early_enable_iommus(void)
2304 : : {
2305 : 0 : struct amd_iommu *iommu;
2306 : :
2307 : :
2308 [ # # ]: 0 : if (!copy_device_table()) {
2309 : : /*
2310 : : * If come here because of failure in copying device table from old
2311 : : * kernel with all IOMMUs enabled, print error message and try to
2312 : : * free allocated old_dev_tbl_cpy.
2313 : : */
2314 [ # # ]: 0 : if (amd_iommu_pre_enabled)
2315 : 0 : pr_err("Failed to copy DEV table from previous kernel.\n");
2316 [ # # ]: 0 : if (old_dev_tbl_cpy != NULL)
2317 : 0 : free_pages((unsigned long)old_dev_tbl_cpy,
2318 : 0 : get_order(dev_table_size));
2319 : :
2320 [ # # ]: 0 : for_each_iommu(iommu) {
2321 : 0 : clear_translation_pre_enabled(iommu);
2322 : 0 : early_enable_iommu(iommu);
2323 : : }
2324 : : } else {
2325 : 0 : pr_info("Copied DEV table from previous kernel.\n");
2326 : 0 : free_pages((unsigned long)amd_iommu_dev_table,
2327 : 0 : get_order(dev_table_size));
2328 : 0 : amd_iommu_dev_table = old_dev_tbl_cpy;
2329 [ # # ]: 0 : for_each_iommu(iommu) {
2330 : 0 : iommu_disable_command_buffer(iommu);
2331 : 0 : iommu_disable_event_buffer(iommu);
2332 : 0 : iommu_enable_command_buffer(iommu);
2333 : 0 : iommu_enable_event_buffer(iommu);
2334 : 0 : iommu_enable_ga(iommu);
2335 : 0 : iommu_enable_xt(iommu);
2336 : 0 : iommu_set_device_table(iommu);
2337 : 0 : iommu_flush_all_caches(iommu);
2338 : : }
2339 : : }
2340 : :
2341 : : #ifdef CONFIG_IRQ_REMAP
2342 : : if (AMD_IOMMU_GUEST_IR_VAPIC(amd_iommu_guest_ir))
2343 : : amd_iommu_irq_ops.capability |= (1 << IRQ_POSTING_CAP);
2344 : : #endif
2345 : 0 : }
2346 : :
2347 : 0 : static void enable_iommus_v2(void)
2348 : : {
2349 : 0 : struct amd_iommu *iommu;
2350 : :
2351 [ # # ]: 0 : for_each_iommu(iommu) {
2352 : 0 : iommu_enable_ppr_log(iommu);
2353 [ # # ]: 0 : iommu_enable_gt(iommu);
2354 : : }
2355 : 0 : }
2356 : :
2357 : 0 : static void enable_iommus(void)
2358 : : {
2359 : 0 : early_enable_iommus();
2360 : :
2361 : 0 : enable_iommus_v2();
2362 : : }
2363 : :
2364 : 11 : static void disable_iommus(void)
2365 : : {
2366 : 11 : struct amd_iommu *iommu;
2367 : :
2368 [ - + - - : 11 : for_each_iommu(iommu)
- - - - ]
2369 : 0 : iommu_disable(iommu);
2370 : :
2371 : : #ifdef CONFIG_IRQ_REMAP
2372 : : if (AMD_IOMMU_GUEST_IR_VAPIC(amd_iommu_guest_ir))
2373 : : amd_iommu_irq_ops.capability &= ~(1 << IRQ_POSTING_CAP);
2374 : : #endif
2375 : 0 : }
2376 : :
2377 : : /*
2378 : : * Suspend/Resume support
2379 : : * disable suspend until real resume implemented
2380 : : */
2381 : :
2382 : 0 : static void amd_iommu_resume(void)
2383 : : {
2384 : 0 : struct amd_iommu *iommu;
2385 : :
2386 [ # # ]: 0 : for_each_iommu(iommu)
2387 : 0 : iommu_apply_resume_quirks(iommu);
2388 : :
2389 : : /* re-load the hardware */
2390 : 0 : enable_iommus();
2391 : :
2392 : 0 : amd_iommu_enable_interrupts();
2393 : 0 : }
2394 : :
2395 : 0 : static int amd_iommu_suspend(void)
2396 : : {
2397 : : /* disable IOMMUs to go out of the way for BIOS */
2398 : 0 : disable_iommus();
2399 : :
2400 : 0 : return 0;
2401 : : }
2402 : :
2403 : : static struct syscore_ops amd_iommu_syscore_ops = {
2404 : : .suspend = amd_iommu_suspend,
2405 : : .resume = amd_iommu_resume,
2406 : : };
2407 : :
2408 : 11 : static void __init free_iommu_resources(void)
2409 : : {
2410 : 11 : kmemleak_free(irq_lookup_table);
2411 : 11 : free_pages((unsigned long)irq_lookup_table,
2412 : 11 : get_order(rlookup_table_size));
2413 : 11 : irq_lookup_table = NULL;
2414 : :
2415 : 11 : kmem_cache_destroy(amd_iommu_irq_cache);
2416 : 11 : amd_iommu_irq_cache = NULL;
2417 : :
2418 : 11 : free_pages((unsigned long)amd_iommu_rlookup_table,
2419 : 11 : get_order(rlookup_table_size));
2420 : 11 : amd_iommu_rlookup_table = NULL;
2421 : :
2422 : 11 : free_pages((unsigned long)amd_iommu_alias_table,
2423 : 11 : get_order(alias_table_size));
2424 : 11 : amd_iommu_alias_table = NULL;
2425 : :
2426 : 11 : free_pages((unsigned long)amd_iommu_dev_table,
2427 : 11 : get_order(dev_table_size));
2428 : 11 : amd_iommu_dev_table = NULL;
2429 : :
2430 : 11 : free_iommu_all();
2431 : 11 : }
2432 : :
2433 : : /* SB IOAPIC is always on this device in AMD systems */
2434 : : #define IOAPIC_SB_DEVID ((0x00 << 8) | PCI_DEVFN(0x14, 0))
2435 : :
2436 : 0 : static bool __init check_ioapic_information(void)
2437 : : {
2438 : 0 : const char *fw_bug = FW_BUG;
2439 : 0 : bool ret, has_sb_ioapic;
2440 : 0 : int idx;
2441 : :
2442 : 0 : has_sb_ioapic = false;
2443 : 0 : ret = false;
2444 : :
2445 : : /*
2446 : : * If we have map overrides on the kernel command line the
2447 : : * messages in this function might not describe firmware bugs
2448 : : * anymore - so be careful
2449 : : */
2450 [ # # ]: 0 : if (cmdline_maps)
2451 : 0 : fw_bug = "";
2452 : :
2453 [ # # ]: 0 : for (idx = 0; idx < nr_ioapics; idx++) {
2454 : 0 : int devid, id = mpc_ioapic_id(idx);
2455 : :
2456 : 0 : devid = get_ioapic_devid(id);
2457 [ # # ]: 0 : if (devid < 0) {
2458 : 0 : pr_err("%s: IOAPIC[%d] not in IVRS table\n",
2459 : : fw_bug, id);
2460 : 0 : ret = false;
2461 [ # # ]: 0 : } else if (devid == IOAPIC_SB_DEVID) {
2462 : 0 : has_sb_ioapic = true;
2463 : 0 : ret = true;
2464 : : }
2465 : : }
2466 : :
2467 [ # # ]: 0 : if (!has_sb_ioapic) {
2468 : : /*
2469 : : * We expect the SB IOAPIC to be listed in the IVRS
2470 : : * table. The system timer is connected to the SB IOAPIC
2471 : : * and if we don't have it in the list the system will
2472 : : * panic at boot time. This situation usually happens
2473 : : * when the BIOS is buggy and provides us the wrong
2474 : : * device id for the IOAPIC in the system.
2475 : : */
2476 : 0 : pr_err("%s: No southbridge IOAPIC found\n", fw_bug);
2477 : : }
2478 : :
2479 [ # # ]: 0 : if (!ret)
2480 : 0 : pr_err("Disabling interrupt remapping\n");
2481 : :
2482 : 0 : return ret;
2483 : : }
2484 : :
2485 : 11 : static void __init free_dma_resources(void)
2486 : : {
2487 : 11 : free_pages((unsigned long)amd_iommu_pd_alloc_bitmap,
2488 : : get_order(MAX_DOMAIN_ID/8));
2489 : 11 : amd_iommu_pd_alloc_bitmap = NULL;
2490 : :
2491 : 11 : free_unity_maps();
2492 : 11 : }
2493 : :
2494 : : /*
2495 : : * This is the hardware init function for AMD IOMMU in the system.
2496 : : * This function is called either from amd_iommu_init or from the interrupt
2497 : : * remapping setup code.
2498 : : *
2499 : : * This function basically parses the ACPI table for AMD IOMMU (IVRS)
2500 : : * four times:
2501 : : *
2502 : : * 1 pass) Discover the most comprehensive IVHD type to use.
2503 : : *
2504 : : * 2 pass) Find the highest PCI device id the driver has to handle.
2505 : : * Upon this information the size of the data structures is
2506 : : * determined that needs to be allocated.
2507 : : *
2508 : : * 3 pass) Initialize the data structures just allocated with the
2509 : : * information in the ACPI table about available AMD IOMMUs
2510 : : * in the system. It also maps the PCI devices in the
2511 : : * system to specific IOMMUs
2512 : : *
2513 : : * 4 pass) After the basic data structures are allocated and
2514 : : * initialized we update them with information about memory
2515 : : * remapping requirements parsed out of the ACPI table in
2516 : : * this last pass.
2517 : : *
2518 : : * After everything is set up the IOMMUs are enabled and the necessary
2519 : : * hotplug and suspend notifiers are registered.
2520 : : */
2521 : 0 : static int __init early_amd_iommu_init(void)
2522 : : {
2523 : 0 : struct acpi_table_header *ivrs_base;
2524 : 0 : acpi_status status;
2525 : 0 : int i, remap_cache_sz, ret = 0;
2526 : 0 : u32 pci_id;
2527 : :
2528 [ # # ]: 0 : if (!amd_iommu_detected)
2529 : : return -ENODEV;
2530 : :
2531 : 0 : status = acpi_get_table("IVRS", 0, &ivrs_base);
2532 [ # # ]: 0 : if (status == AE_NOT_FOUND)
2533 : : return -ENODEV;
2534 [ # # ]: 0 : else if (ACPI_FAILURE(status)) {
2535 : 0 : const char *err = acpi_format_exception(status);
2536 : 0 : pr_err("IVRS table error: %s\n", err);
2537 : 0 : return -EINVAL;
2538 : : }
2539 : :
2540 : : /*
2541 : : * Validate checksum here so we don't need to do it when
2542 : : * we actually parse the table
2543 : : */
2544 : 0 : ret = check_ivrs_checksum(ivrs_base);
2545 [ # # ]: 0 : if (ret)
2546 : 0 : goto out;
2547 : :
2548 : 0 : amd_iommu_target_ivhd_type = get_highest_supported_ivhd_type(ivrs_base);
2549 [ # # ]: 0 : DUMP_printk("Using IVHD type %#x\n", amd_iommu_target_ivhd_type);
2550 : :
2551 : : /*
2552 : : * First parse ACPI tables to find the largest Bus/Dev/Func
2553 : : * we need to handle. Upon this information the shared data
2554 : : * structures for the IOMMUs in the system will be allocated
2555 : : */
2556 : 0 : ret = find_last_devid_acpi(ivrs_base);
2557 [ # # ]: 0 : if (ret)
2558 : 0 : goto out;
2559 : :
2560 : 0 : dev_table_size = tbl_size(DEV_TABLE_ENTRY_SIZE);
2561 : 0 : alias_table_size = tbl_size(ALIAS_TABLE_ENTRY_SIZE);
2562 : 0 : rlookup_table_size = tbl_size(RLOOKUP_TABLE_ENTRY_SIZE);
2563 : :
2564 : : /* Device table - directly used by all IOMMUs */
2565 : 0 : ret = -ENOMEM;
2566 : 0 : amd_iommu_dev_table = (void *)__get_free_pages(
2567 : : GFP_KERNEL | __GFP_ZERO | GFP_DMA32,
2568 : 0 : get_order(dev_table_size));
2569 [ # # ]: 0 : if (amd_iommu_dev_table == NULL)
2570 : 0 : goto out;
2571 : :
2572 : : /*
2573 : : * Alias table - map PCI Bus/Dev/Func to Bus/Dev/Func the
2574 : : * IOMMU see for that device
2575 : : */
2576 : 0 : amd_iommu_alias_table = (void *)__get_free_pages(GFP_KERNEL,
2577 : 0 : get_order(alias_table_size));
2578 [ # # ]: 0 : if (amd_iommu_alias_table == NULL)
2579 : 0 : goto out;
2580 : :
2581 : : /* IOMMU rlookup table - find the IOMMU for a specific device */
2582 : 0 : amd_iommu_rlookup_table = (void *)__get_free_pages(
2583 : : GFP_KERNEL | __GFP_ZERO,
2584 : 0 : get_order(rlookup_table_size));
2585 [ # # ]: 0 : if (amd_iommu_rlookup_table == NULL)
2586 : 0 : goto out;
2587 : :
2588 : 0 : amd_iommu_pd_alloc_bitmap = (void *)__get_free_pages(
2589 : : GFP_KERNEL | __GFP_ZERO,
2590 : : get_order(MAX_DOMAIN_ID/8));
2591 [ # # ]: 0 : if (amd_iommu_pd_alloc_bitmap == NULL)
2592 : 0 : goto out;
2593 : :
2594 : : /*
2595 : : * let all alias entries point to itself
2596 : : */
2597 [ # # ]: 0 : for (i = 0; i <= amd_iommu_last_bdf; ++i)
2598 : 0 : amd_iommu_alias_table[i] = i;
2599 : :
2600 : : /*
2601 : : * never allocate domain 0 because its used as the non-allocated and
2602 : : * error value placeholder
2603 : : */
2604 : 0 : __set_bit(0, amd_iommu_pd_alloc_bitmap);
2605 : :
2606 : : /*
2607 : : * now the data structures are allocated and basically initialized
2608 : : * start the real acpi table scan
2609 : : */
2610 : 0 : ret = init_iommu_all(ivrs_base);
2611 [ # # ]: 0 : if (ret)
2612 : 0 : goto out;
2613 : :
2614 : : /* Disable IOMMU if there's Stoney Ridge graphics */
2615 [ # # ]: 0 : for (i = 0; i < 32; i++) {
2616 : 0 : pci_id = read_pci_config(0, i, 0, 0);
2617 [ # # # # ]: 0 : if ((pci_id & 0xffff) == 0x1002 && (pci_id >> 16) == 0x98e4) {
2618 : 0 : pr_info("Disable IOMMU on Stoney Ridge\n");
2619 : 0 : amd_iommu_disabled = true;
2620 : 0 : break;
2621 : : }
2622 : : }
2623 : :
2624 : : /* Disable any previously enabled IOMMUs */
2625 [ # # # # ]: 0 : if (!is_kdump_kernel() || amd_iommu_disabled)
2626 : 0 : disable_iommus();
2627 : :
2628 [ # # ]: 0 : if (amd_iommu_irq_remap)
2629 : 0 : amd_iommu_irq_remap = check_ioapic_information();
2630 : :
2631 [ # # ]: 0 : if (amd_iommu_irq_remap) {
2632 : : /*
2633 : : * Interrupt remapping enabled, create kmem_cache for the
2634 : : * remapping tables.
2635 : : */
2636 : 0 : ret = -ENOMEM;
2637 [ # # ]: 0 : if (!AMD_IOMMU_GUEST_IR_GA(amd_iommu_guest_ir))
2638 : : remap_cache_sz = MAX_IRQS_PER_TABLE * sizeof(u32);
2639 : : else
2640 : 0 : remap_cache_sz = MAX_IRQS_PER_TABLE * (sizeof(u64) * 2);
2641 : 0 : amd_iommu_irq_cache = kmem_cache_create("irq_remap_cache",
2642 : : remap_cache_sz,
2643 : : IRQ_TABLE_ALIGNMENT,
2644 : : 0, NULL);
2645 [ # # ]: 0 : if (!amd_iommu_irq_cache)
2646 : 0 : goto out;
2647 : :
2648 : 0 : irq_lookup_table = (void *)__get_free_pages(
2649 : : GFP_KERNEL | __GFP_ZERO,
2650 : 0 : get_order(rlookup_table_size));
2651 [ # # ]: 0 : kmemleak_alloc(irq_lookup_table, rlookup_table_size,
2652 : : 1, GFP_KERNEL);
2653 [ # # ]: 0 : if (!irq_lookup_table)
2654 : 0 : goto out;
2655 : : }
2656 : :
2657 : 0 : ret = init_memory_definitions(ivrs_base);
2658 [ # # ]: 0 : if (ret)
2659 : 0 : goto out;
2660 : :
2661 : : /* init the device table */
2662 [ # # ]: 0 : init_device_table();
2663 : :
2664 : 0 : out:
2665 : : /* Don't leak any ACPI memory */
2666 : 0 : acpi_put_table(ivrs_base);
2667 : 0 : ivrs_base = NULL;
2668 : :
2669 : 0 : return ret;
2670 : : }
2671 : :
2672 : 0 : static int amd_iommu_enable_interrupts(void)
2673 : : {
2674 : 0 : struct amd_iommu *iommu;
2675 : 0 : int ret = 0;
2676 : :
2677 [ # # # # ]: 0 : for_each_iommu(iommu) {
2678 : 0 : ret = iommu_init_msi(iommu);
2679 [ # # # # ]: 0 : if (ret)
2680 : 0 : goto out;
2681 : : }
2682 : :
2683 : 0 : out:
2684 : 0 : return ret;
2685 : : }
2686 : :
2687 : 11 : static bool detect_ivrs(void)
2688 : : {
2689 : 11 : struct acpi_table_header *ivrs_base;
2690 : 11 : acpi_status status;
2691 : :
2692 : 11 : status = acpi_get_table("IVRS", 0, &ivrs_base);
2693 [ - + ]: 11 : if (status == AE_NOT_FOUND)
2694 : : return false;
2695 [ # # ]: 0 : else if (ACPI_FAILURE(status)) {
2696 : 0 : const char *err = acpi_format_exception(status);
2697 : 0 : pr_err("IVRS table error: %s\n", err);
2698 : 0 : return false;
2699 : : }
2700 : :
2701 : 0 : acpi_put_table(ivrs_base);
2702 : :
2703 : : /* Make sure ACS will be enabled during PCI probe */
2704 : 0 : pci_request_acs();
2705 : :
2706 : 0 : return true;
2707 : : }
2708 : :
2709 : : /****************************************************************************
2710 : : *
2711 : : * AMD IOMMU Initialization State Machine
2712 : : *
2713 : : ****************************************************************************/
2714 : :
2715 : 11 : static int __init state_next(void)
2716 : : {
2717 : 11 : int ret = 0;
2718 : :
2719 [ + - - - : 11 : switch (init_state) {
- - - - -
- ]
2720 : 11 : case IOMMU_START_STATE:
2721 [ + - ]: 11 : if (!detect_ivrs()) {
2722 : 11 : init_state = IOMMU_NOT_FOUND;
2723 : 11 : ret = -ENODEV;
2724 : : } else {
2725 : 0 : init_state = IOMMU_IVRS_DETECTED;
2726 : : }
2727 : : break;
2728 : 0 : case IOMMU_IVRS_DETECTED:
2729 : 0 : ret = early_amd_iommu_init();
2730 [ # # ]: 0 : init_state = ret ? IOMMU_INIT_ERROR : IOMMU_ACPI_FINISHED;
2731 [ # # # # ]: 0 : if (init_state == IOMMU_ACPI_FINISHED && amd_iommu_disabled) {
2732 : 0 : pr_info("AMD IOMMU disabled\n");
2733 : 0 : init_state = IOMMU_CMDLINE_DISABLED;
2734 : 0 : ret = -EINVAL;
2735 : : }
2736 : : break;
2737 : 0 : case IOMMU_ACPI_FINISHED:
2738 : 0 : early_enable_iommus();
2739 : 0 : x86_platform.iommu_shutdown = disable_iommus;
2740 : 0 : init_state = IOMMU_ENABLED;
2741 : 0 : break;
2742 : 0 : case IOMMU_ENABLED:
2743 : 0 : register_syscore_ops(&amd_iommu_syscore_ops);
2744 : 0 : ret = amd_iommu_init_pci();
2745 [ # # ]: 0 : init_state = ret ? IOMMU_INIT_ERROR : IOMMU_PCI_INIT;
2746 : 0 : enable_iommus_v2();
2747 : 0 : break;
2748 : : case IOMMU_PCI_INIT:
2749 : 0 : ret = amd_iommu_enable_interrupts();
2750 [ # # ]: 0 : init_state = ret ? IOMMU_INIT_ERROR : IOMMU_INTERRUPTS_EN;
2751 : 0 : break;
2752 : 0 : case IOMMU_INTERRUPTS_EN:
2753 : 0 : ret = amd_iommu_init_dma_ops();
2754 [ # # ]: 0 : init_state = ret ? IOMMU_INIT_ERROR : IOMMU_DMA_OPS;
2755 : 0 : break;
2756 : 0 : case IOMMU_DMA_OPS:
2757 : 0 : init_state = IOMMU_INITIALIZED;
2758 : 0 : break;
2759 : : case IOMMU_INITIALIZED:
2760 : : /* Nothing to do */
2761 : : break;
2762 : : case IOMMU_NOT_FOUND:
2763 : : case IOMMU_INIT_ERROR:
2764 : : case IOMMU_CMDLINE_DISABLED:
2765 : : /* Error states => do nothing */
2766 : : ret = -EINVAL;
2767 : : break;
2768 : 0 : default:
2769 : : /* Unknown state */
2770 : 0 : BUG();
2771 : : }
2772 : :
2773 [ - - ]: 11 : if (ret) {
2774 : 11 : free_dma_resources();
2775 : 11 : if (!irq_remapping_enabled) {
2776 : 11 : disable_iommus();
2777 : 11 : free_iommu_resources();
2778 : : } else {
2779 : : struct amd_iommu *iommu;
2780 : :
2781 : : uninit_device_table_dma();
2782 : : for_each_iommu(iommu)
2783 : : iommu_flush_all_caches(iommu);
2784 : : }
2785 : : }
2786 : 11 : return ret;
2787 : : }
2788 : :
2789 : 11 : static int __init iommu_go_to_state(enum iommu_init_state state)
2790 : : {
2791 : 11 : int ret = -EINVAL;
2792 : :
2793 [ + - ]: 22 : while (init_state != state) {
2794 : 22 : if (init_state == IOMMU_NOT_FOUND ||
2795 [ + + ]: 22 : init_state == IOMMU_INIT_ERROR ||
2796 : : init_state == IOMMU_CMDLINE_DISABLED)
2797 : : break;
2798 : 11 : ret = state_next();
2799 : : }
2800 : :
2801 : 11 : return ret;
2802 : : }
2803 : :
2804 : : #ifdef CONFIG_IRQ_REMAP
2805 : : int __init amd_iommu_prepare(void)
2806 : : {
2807 : : int ret;
2808 : :
2809 : : amd_iommu_irq_remap = true;
2810 : :
2811 : : ret = iommu_go_to_state(IOMMU_ACPI_FINISHED);
2812 : : if (ret)
2813 : : return ret;
2814 : : return amd_iommu_irq_remap ? 0 : -ENODEV;
2815 : : }
2816 : :
2817 : : int __init amd_iommu_enable(void)
2818 : : {
2819 : : int ret;
2820 : :
2821 : : ret = iommu_go_to_state(IOMMU_ENABLED);
2822 : : if (ret)
2823 : : return ret;
2824 : :
2825 : : irq_remapping_enabled = 1;
2826 : : return amd_iommu_xt_mode;
2827 : : }
2828 : :
2829 : : void amd_iommu_disable(void)
2830 : : {
2831 : : amd_iommu_suspend();
2832 : : }
2833 : :
2834 : : int amd_iommu_reenable(int mode)
2835 : : {
2836 : : amd_iommu_resume();
2837 : :
2838 : : return 0;
2839 : : }
2840 : :
2841 : : int __init amd_iommu_enable_faulting(void)
2842 : : {
2843 : : /* We enable MSI later when PCI is initialized */
2844 : : return 0;
2845 : : }
2846 : : #endif
2847 : :
2848 : : /*
2849 : : * This is the core init function for AMD IOMMU hardware in the system.
2850 : : * This function is called from the generic x86 DMA layer initialization
2851 : : * code.
2852 : : */
2853 : 0 : static int __init amd_iommu_init(void)
2854 : : {
2855 : 0 : struct amd_iommu *iommu;
2856 : 0 : int ret;
2857 : :
2858 : 0 : ret = iommu_go_to_state(IOMMU_INITIALIZED);
2859 : : #ifdef CONFIG_GART_IOMMU
2860 : : if (ret && list_empty(&amd_iommu_list)) {
2861 : : /*
2862 : : * We failed to initialize the AMD IOMMU - try fallback
2863 : : * to GART if possible.
2864 : : */
2865 : : gart_iommu_init();
2866 : : }
2867 : : #endif
2868 : :
2869 [ # # ]: 0 : for_each_iommu(iommu)
2870 : 0 : amd_iommu_debugfs_setup(iommu);
2871 : :
2872 : 0 : return ret;
2873 : : }
2874 : :
2875 : 11 : static bool amd_iommu_sme_check(void)
2876 : : {
2877 : 11 : if (!sme_active() || (boot_cpu_data.x86 != 0x17))
2878 : 11 : return true;
2879 : :
2880 : : /* For Fam17h, a specific level of support is required */
2881 : : if (boot_cpu_data.microcode >= 0x08001205)
2882 : : return true;
2883 : :
2884 : : if ((boot_cpu_data.microcode >= 0x08001126) &&
2885 : : (boot_cpu_data.microcode <= 0x080011ff))
2886 : : return true;
2887 : :
2888 : : pr_notice("IOMMU not currently supported when SME is active\n");
2889 : :
2890 : : return false;
2891 : : }
2892 : :
2893 : : /****************************************************************************
2894 : : *
2895 : : * Early detect code. This code runs at IOMMU detection time in the DMA
2896 : : * layer. It just looks if there is an IVRS ACPI table to detect AMD
2897 : : * IOMMUs
2898 : : *
2899 : : ****************************************************************************/
2900 : 11 : int __init amd_iommu_detect(void)
2901 : : {
2902 : 11 : int ret;
2903 : :
2904 [ + - + - ]: 11 : if (no_iommu || (iommu_detected && !gart_iommu_aperture))
2905 : : return -ENODEV;
2906 : :
2907 : 11 : if (!amd_iommu_sme_check())
2908 : : return -ENODEV;
2909 : :
2910 : 11 : ret = iommu_go_to_state(IOMMU_IVRS_DETECTED);
2911 [ - + ]: 11 : if (ret)
2912 : : return ret;
2913 : :
2914 : 0 : amd_iommu_detected = true;
2915 : 0 : iommu_detected = 1;
2916 : 0 : x86_init.iommu.iommu_init = amd_iommu_init;
2917 : :
2918 : 0 : return 1;
2919 : : }
2920 : :
2921 : : /****************************************************************************
2922 : : *
2923 : : * Parsing functions for the AMD IOMMU specific kernel command line
2924 : : * options.
2925 : : *
2926 : : ****************************************************************************/
2927 : :
2928 : 0 : static int __init parse_amd_iommu_dump(char *str)
2929 : : {
2930 : 0 : amd_iommu_dump = true;
2931 : :
2932 : 0 : return 1;
2933 : : }
2934 : :
2935 : 0 : static int __init parse_amd_iommu_intr(char *str)
2936 : : {
2937 [ # # ]: 0 : for (; *str; ++str) {
2938 [ # # ]: 0 : if (strncmp(str, "legacy", 6) == 0) {
2939 : 0 : amd_iommu_guest_ir = AMD_IOMMU_GUEST_IR_LEGACY;
2940 : 0 : break;
2941 : : }
2942 [ # # ]: 0 : if (strncmp(str, "vapic", 5) == 0) {
2943 : 0 : amd_iommu_guest_ir = AMD_IOMMU_GUEST_IR_VAPIC;
2944 : 0 : break;
2945 : : }
2946 : : }
2947 : 0 : return 1;
2948 : : }
2949 : :
2950 : 0 : static int __init parse_amd_iommu_options(char *str)
2951 : : {
2952 [ # # ]: 0 : for (; *str; ++str) {
2953 [ # # ]: 0 : if (strncmp(str, "fullflush", 9) == 0)
2954 : 0 : amd_iommu_unmap_flush = true;
2955 [ # # ]: 0 : if (strncmp(str, "off", 3) == 0)
2956 : 0 : amd_iommu_disabled = true;
2957 [ # # ]: 0 : if (strncmp(str, "force_isolation", 15) == 0)
2958 : 0 : amd_iommu_force_isolation = true;
2959 : : }
2960 : :
2961 : 0 : return 1;
2962 : : }
2963 : :
2964 : 0 : static int __init parse_ivrs_ioapic(char *str)
2965 : : {
2966 : 0 : unsigned int bus, dev, fn;
2967 : 0 : int ret, id, i;
2968 : 0 : u16 devid;
2969 : :
2970 : 0 : ret = sscanf(str, "[%d]=%x:%x.%x", &id, &bus, &dev, &fn);
2971 : :
2972 [ # # ]: 0 : if (ret != 4) {
2973 : 0 : pr_err("Invalid command line: ivrs_ioapic%s\n", str);
2974 : 0 : return 1;
2975 : : }
2976 : :
2977 [ # # ]: 0 : if (early_ioapic_map_size == EARLY_MAP_SIZE) {
2978 : 0 : pr_err("Early IOAPIC map overflow - ignoring ivrs_ioapic%s\n",
2979 : : str);
2980 : 0 : return 1;
2981 : : }
2982 : :
2983 : 0 : devid = ((bus & 0xff) << 8) | ((dev & 0x1f) << 3) | (fn & 0x7);
2984 : :
2985 : 0 : cmdline_maps = true;
2986 : 0 : i = early_ioapic_map_size++;
2987 : 0 : early_ioapic_map[i].id = id;
2988 : 0 : early_ioapic_map[i].devid = devid;
2989 : 0 : early_ioapic_map[i].cmd_line = true;
2990 : :
2991 : 0 : return 1;
2992 : : }
2993 : :
2994 : 0 : static int __init parse_ivrs_hpet(char *str)
2995 : : {
2996 : 0 : unsigned int bus, dev, fn;
2997 : 0 : int ret, id, i;
2998 : 0 : u16 devid;
2999 : :
3000 : 0 : ret = sscanf(str, "[%d]=%x:%x.%x", &id, &bus, &dev, &fn);
3001 : :
3002 [ # # ]: 0 : if (ret != 4) {
3003 : 0 : pr_err("Invalid command line: ivrs_hpet%s\n", str);
3004 : 0 : return 1;
3005 : : }
3006 : :
3007 [ # # ]: 0 : if (early_hpet_map_size == EARLY_MAP_SIZE) {
3008 : 0 : pr_err("Early HPET map overflow - ignoring ivrs_hpet%s\n",
3009 : : str);
3010 : 0 : return 1;
3011 : : }
3012 : :
3013 : 0 : devid = ((bus & 0xff) << 8) | ((dev & 0x1f) << 3) | (fn & 0x7);
3014 : :
3015 : 0 : cmdline_maps = true;
3016 : 0 : i = early_hpet_map_size++;
3017 : 0 : early_hpet_map[i].id = id;
3018 : 0 : early_hpet_map[i].devid = devid;
3019 : 0 : early_hpet_map[i].cmd_line = true;
3020 : :
3021 : 0 : return 1;
3022 : : }
3023 : :
3024 : 0 : static int __init parse_ivrs_acpihid(char *str)
3025 : : {
3026 : 0 : u32 bus, dev, fn;
3027 : 0 : char *hid, *uid, *p;
3028 : 0 : char acpiid[ACPIHID_UID_LEN + ACPIHID_HID_LEN] = {0};
3029 : 0 : int ret, i;
3030 : :
3031 : 0 : ret = sscanf(str, "[%x:%x.%x]=%s", &bus, &dev, &fn, acpiid);
3032 [ # # ]: 0 : if (ret != 4) {
3033 : 0 : pr_err("Invalid command line: ivrs_acpihid(%s)\n", str);
3034 : 0 : return 1;
3035 : : }
3036 : :
3037 : 0 : p = acpiid;
3038 : 0 : hid = strsep(&p, ":");
3039 : 0 : uid = p;
3040 : :
3041 [ # # # # : 0 : if (!hid || !(*hid) || !uid) {
# # ]
3042 : 0 : pr_err("Invalid command line: hid or uid\n");
3043 : 0 : return 1;
3044 : : }
3045 : :
3046 : 0 : i = early_acpihid_map_size++;
3047 : 0 : memcpy(early_acpihid_map[i].hid, hid, strlen(hid));
3048 : 0 : memcpy(early_acpihid_map[i].uid, uid, strlen(uid));
3049 : 0 : early_acpihid_map[i].devid =
3050 : 0 : ((bus & 0xff) << 8) | ((dev & 0x1f) << 3) | (fn & 0x7);
3051 : 0 : early_acpihid_map[i].cmd_line = true;
3052 : :
3053 : 0 : return 1;
3054 : : }
3055 : :
3056 : : __setup("amd_iommu_dump", parse_amd_iommu_dump);
3057 : : __setup("amd_iommu=", parse_amd_iommu_options);
3058 : : __setup("amd_iommu_intr=", parse_amd_iommu_intr);
3059 : : __setup("ivrs_ioapic", parse_ivrs_ioapic);
3060 : : __setup("ivrs_hpet", parse_ivrs_hpet);
3061 : : __setup("ivrs_acpihid", parse_ivrs_acpihid);
3062 : :
3063 : : IOMMU_INIT_FINISH(amd_iommu_detect,
3064 : : gart_iommu_hole_init,
3065 : : NULL,
3066 : : NULL);
3067 : :
3068 : 0 : bool amd_iommu_v2_supported(void)
3069 : : {
3070 : 0 : return amd_iommu_v2_present;
3071 : : }
3072 : : EXPORT_SYMBOL(amd_iommu_v2_supported);
3073 : :
3074 : 0 : struct amd_iommu *get_amd_iommu(unsigned int idx)
3075 : : {
3076 : 0 : unsigned int i = 0;
3077 : 0 : struct amd_iommu *iommu;
3078 : :
3079 [ # # # # : 0 : for_each_iommu(iommu)
# # ]
3080 [ # # # # : 0 : if (i++ == idx)
# # ]
3081 : 0 : return iommu;
3082 : : return NULL;
3083 : : }
3084 : : EXPORT_SYMBOL(get_amd_iommu);
3085 : :
3086 : : /****************************************************************************
3087 : : *
3088 : : * IOMMU EFR Performance Counter support functionality. This code allows
3089 : : * access to the IOMMU PC functionality.
3090 : : *
3091 : : ****************************************************************************/
3092 : :
3093 : 0 : u8 amd_iommu_pc_get_max_banks(unsigned int idx)
3094 : : {
3095 : 0 : struct amd_iommu *iommu = get_amd_iommu(idx);
3096 : :
3097 [ # # ]: 0 : if (iommu)
3098 : 0 : return iommu->max_banks;
3099 : :
3100 : : return 0;
3101 : : }
3102 : : EXPORT_SYMBOL(amd_iommu_pc_get_max_banks);
3103 : :
3104 : 11 : bool amd_iommu_pc_supported(void)
3105 : : {
3106 : 11 : return amd_iommu_pc_present;
3107 : : }
3108 : : EXPORT_SYMBOL(amd_iommu_pc_supported);
3109 : :
3110 : 0 : u8 amd_iommu_pc_get_max_counters(unsigned int idx)
3111 : : {
3112 : 0 : struct amd_iommu *iommu = get_amd_iommu(idx);
3113 : :
3114 [ # # ]: 0 : if (iommu)
3115 : 0 : return iommu->max_counters;
3116 : :
3117 : : return 0;
3118 : : }
3119 : : EXPORT_SYMBOL(amd_iommu_pc_get_max_counters);
3120 : :
3121 : 0 : static int iommu_pc_get_set_reg(struct amd_iommu *iommu, u8 bank, u8 cntr,
3122 : : u8 fxn, u64 *value, bool is_write)
3123 : : {
3124 : 0 : u32 offset;
3125 : 0 : u32 max_offset_lim;
3126 : :
3127 : : /* Make sure the IOMMU PC resource is available */
3128 [ # # ]: 0 : if (!amd_iommu_pc_present)
3129 : : return -ENODEV;
3130 : :
3131 : : /* Check for valid iommu and pc register indexing */
3132 [ # # # # : 0 : if (WARN_ON(!iommu || (fxn > 0x28) || (fxn & 7)))
# # # # ]
3133 : : return -ENODEV;
3134 : :
3135 : 0 : offset = (u32)(((0x40 | bank) << 12) | (cntr << 8) | fxn);
3136 : :
3137 : : /* Limit the offset to the hw defined mmio region aperture */
3138 : 0 : max_offset_lim = (u32)(((0x40 | iommu->max_banks) << 12) |
3139 : 0 : (iommu->max_counters << 8) | 0x28);
3140 [ # # ]: 0 : if ((offset < MMIO_CNTR_REG_OFFSET) ||
3141 : : (offset > max_offset_lim))
3142 : : return -EINVAL;
3143 : :
3144 [ # # ]: 0 : if (is_write) {
3145 : 0 : u64 val = *value & GENMASK_ULL(47, 0);
3146 : :
3147 : 0 : writel((u32)val, iommu->mmio_base + offset);
3148 : 0 : writel((val >> 32), iommu->mmio_base + offset + 4);
3149 : : } else {
3150 : 0 : *value = readl(iommu->mmio_base + offset + 4);
3151 : 0 : *value <<= 32;
3152 : 0 : *value |= readl(iommu->mmio_base + offset);
3153 : 0 : *value &= GENMASK_ULL(47, 0);
3154 : : }
3155 : :
3156 : : return 0;
3157 : : }
3158 : :
3159 : 0 : int amd_iommu_pc_get_reg(struct amd_iommu *iommu, u8 bank, u8 cntr, u8 fxn, u64 *value)
3160 : : {
3161 [ # # ]: 0 : if (!iommu)
3162 : : return -EINVAL;
3163 : :
3164 : 0 : return iommu_pc_get_set_reg(iommu, bank, cntr, fxn, value, false);
3165 : : }
3166 : : EXPORT_SYMBOL(amd_iommu_pc_get_reg);
3167 : :
3168 : 0 : int amd_iommu_pc_set_reg(struct amd_iommu *iommu, u8 bank, u8 cntr, u8 fxn, u64 *value)
3169 : : {
3170 [ # # ]: 0 : if (!iommu)
3171 : : return -EINVAL;
3172 : :
3173 : 0 : return iommu_pc_get_set_reg(iommu, bank, cntr, fxn, value, true);
3174 : : }
3175 : : EXPORT_SYMBOL(amd_iommu_pc_set_reg);
|