Branch data Line data Source code
1 : : // SPDX-License-Identifier: (GPL-2.0 OR MIT)
2 : : /*
3 : : * Copyright (c) 2018 Synopsys, Inc. and/or its affiliates.
4 : : * stmmac XGMAC support.
5 : : */
6 : :
7 : : #include <linux/iopoll.h>
8 : : #include "stmmac.h"
9 : : #include "dwxgmac2.h"
10 : :
11 : 0 : static int dwxgmac2_dma_reset(void __iomem *ioaddr)
12 : : {
13 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_MODE);
14 : :
15 : : /* DMA SW reset */
16 : 0 : writel(value | XGMAC_SWR, ioaddr + XGMAC_DMA_MODE);
17 : :
18 [ # # # # ]: 0 : return readl_poll_timeout(ioaddr + XGMAC_DMA_MODE, value,
19 : : !(value & XGMAC_SWR), 0, 100000);
20 : : }
21 : :
22 : 0 : static void dwxgmac2_dma_init(void __iomem *ioaddr,
23 : : struct stmmac_dma_cfg *dma_cfg, int atds)
24 : : {
25 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_SYSBUS_MODE);
26 : :
27 [ # # ]: 0 : if (dma_cfg->aal)
28 : 0 : value |= XGMAC_AAL;
29 : :
30 [ # # ]: 0 : if (dma_cfg->eame)
31 : 0 : value |= XGMAC_EAME;
32 : :
33 : 0 : writel(value, ioaddr + XGMAC_DMA_SYSBUS_MODE);
34 : 0 : }
35 : :
36 : 0 : static void dwxgmac2_dma_init_chan(void __iomem *ioaddr,
37 : : struct stmmac_dma_cfg *dma_cfg, u32 chan)
38 : : {
39 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_CH_CONTROL(chan));
40 : :
41 [ # # ]: 0 : if (dma_cfg->pblx8)
42 : 0 : value |= XGMAC_PBLx8;
43 : :
44 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_CONTROL(chan));
45 : 0 : writel(XGMAC_DMA_INT_DEFAULT_EN, ioaddr + XGMAC_DMA_CH_INT_EN(chan));
46 : 0 : }
47 : :
48 : 0 : static void dwxgmac2_dma_init_rx_chan(void __iomem *ioaddr,
49 : : struct stmmac_dma_cfg *dma_cfg,
50 : : dma_addr_t phy, u32 chan)
51 : : {
52 [ # # ]: 0 : u32 rxpbl = dma_cfg->rxpbl ?: dma_cfg->pbl;
53 : 0 : u32 value;
54 : :
55 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
56 : 0 : value &= ~XGMAC_RxPBL;
57 : 0 : value |= (rxpbl << XGMAC_RxPBL_SHIFT) & XGMAC_RxPBL;
58 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
59 : :
60 : 0 : writel(upper_32_bits(phy), ioaddr + XGMAC_DMA_CH_RxDESC_HADDR(chan));
61 : 0 : writel(lower_32_bits(phy), ioaddr + XGMAC_DMA_CH_RxDESC_LADDR(chan));
62 : 0 : }
63 : :
64 : 0 : static void dwxgmac2_dma_init_tx_chan(void __iomem *ioaddr,
65 : : struct stmmac_dma_cfg *dma_cfg,
66 : : dma_addr_t phy, u32 chan)
67 : : {
68 [ # # ]: 0 : u32 txpbl = dma_cfg->txpbl ?: dma_cfg->pbl;
69 : 0 : u32 value;
70 : :
71 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
72 : 0 : value &= ~XGMAC_TxPBL;
73 : 0 : value |= (txpbl << XGMAC_TxPBL_SHIFT) & XGMAC_TxPBL;
74 : 0 : value |= XGMAC_OSP;
75 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
76 : :
77 : 0 : writel(upper_32_bits(phy), ioaddr + XGMAC_DMA_CH_TxDESC_HADDR(chan));
78 : 0 : writel(lower_32_bits(phy), ioaddr + XGMAC_DMA_CH_TxDESC_LADDR(chan));
79 : 0 : }
80 : :
81 : 0 : static void dwxgmac2_dma_axi(void __iomem *ioaddr, struct stmmac_axi *axi)
82 : : {
83 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_SYSBUS_MODE);
84 : 0 : int i;
85 : :
86 [ # # ]: 0 : if (axi->axi_lpi_en)
87 : 0 : value |= XGMAC_EN_LPI;
88 [ # # ]: 0 : if (axi->axi_xit_frm)
89 : 0 : value |= XGMAC_LPI_XIT_PKT;
90 : :
91 : 0 : value &= ~XGMAC_WR_OSR_LMT;
92 : 0 : value |= (axi->axi_wr_osr_lmt << XGMAC_WR_OSR_LMT_SHIFT) &
93 : : XGMAC_WR_OSR_LMT;
94 : :
95 : 0 : value &= ~XGMAC_RD_OSR_LMT;
96 : 0 : value |= (axi->axi_rd_osr_lmt << XGMAC_RD_OSR_LMT_SHIFT) &
97 : : XGMAC_RD_OSR_LMT;
98 : :
99 [ # # ]: 0 : if (!axi->axi_fb)
100 : 0 : value |= XGMAC_UNDEF;
101 : :
102 : 0 : value &= ~XGMAC_BLEN;
103 [ # # ]: 0 : for (i = 0; i < AXI_BLEN; i++) {
104 [ # # # # : 0 : switch (axi->axi_blen[i]) {
# # # # ]
105 : 0 : case 256:
106 : 0 : value |= XGMAC_BLEN256;
107 : 0 : break;
108 : 0 : case 128:
109 : 0 : value |= XGMAC_BLEN128;
110 : 0 : break;
111 : 0 : case 64:
112 : 0 : value |= XGMAC_BLEN64;
113 : 0 : break;
114 : 0 : case 32:
115 : 0 : value |= XGMAC_BLEN32;
116 : 0 : break;
117 : 0 : case 16:
118 : 0 : value |= XGMAC_BLEN16;
119 : 0 : break;
120 : 0 : case 8:
121 : 0 : value |= XGMAC_BLEN8;
122 : 0 : break;
123 : 0 : case 4:
124 : 0 : value |= XGMAC_BLEN4;
125 : 0 : break;
126 : : }
127 : 0 : }
128 : :
129 : 0 : writel(value, ioaddr + XGMAC_DMA_SYSBUS_MODE);
130 : 0 : writel(XGMAC_TDPS, ioaddr + XGMAC_TX_EDMA_CTRL);
131 : 0 : writel(XGMAC_RDPS, ioaddr + XGMAC_RX_EDMA_CTRL);
132 : 0 : }
133 : :
134 : 0 : static void dwxgmac2_dma_dump_regs(void __iomem *ioaddr, u32 *reg_space)
135 : : {
136 : 0 : int i;
137 : :
138 [ # # ]: 0 : for (i = (XGMAC_DMA_MODE / 4); i < XGMAC_REGSIZE; i++)
139 : 0 : reg_space[i] = readl(ioaddr + i * 4);
140 : 0 : }
141 : :
142 : 0 : static void dwxgmac2_dma_rx_mode(void __iomem *ioaddr, int mode,
143 : : u32 channel, int fifosz, u8 qmode)
144 : : {
145 : 0 : u32 value = readl(ioaddr + XGMAC_MTL_RXQ_OPMODE(channel));
146 : 0 : unsigned int rqs = fifosz / 256 - 1;
147 : :
148 [ # # ]: 0 : if (mode == SF_DMA_MODE) {
149 : 0 : value |= XGMAC_RSF;
150 : : } else {
151 : 0 : value &= ~XGMAC_RSF;
152 : 0 : value &= ~XGMAC_RTC;
153 : :
154 [ # # ]: 0 : if (mode <= 64)
155 : : value |= 0x0 << XGMAC_RTC_SHIFT;
156 [ # # ]: 0 : else if (mode <= 96)
157 : 0 : value |= 0x2 << XGMAC_RTC_SHIFT;
158 : : else
159 : 0 : value |= 0x3 << XGMAC_RTC_SHIFT;
160 : : }
161 : :
162 : 0 : value &= ~XGMAC_RQS;
163 : 0 : value |= (rqs << XGMAC_RQS_SHIFT) & XGMAC_RQS;
164 : :
165 [ # # # # ]: 0 : if ((fifosz >= 4096) && (qmode != MTL_QUEUE_AVB)) {
166 : 0 : u32 flow = readl(ioaddr + XGMAC_MTL_RXQ_FLOW_CONTROL(channel));
167 : 0 : unsigned int rfd, rfa;
168 : :
169 : 0 : value |= XGMAC_EHFC;
170 : :
171 : : /* Set Threshold for Activating Flow Control to min 2 frames,
172 : : * i.e. 1500 * 2 = 3000 bytes.
173 : : *
174 : : * Set Threshold for Deactivating Flow Control to min 1 frame,
175 : : * i.e. 1500 bytes.
176 : : */
177 [ # # ]: 0 : switch (fifosz) {
178 : : case 4096:
179 : : /* This violates the above formula because of FIFO size
180 : : * limit therefore overflow may occur in spite of this.
181 : : */
182 : : rfd = 0x03; /* Full-2.5K */
183 : : rfa = 0x01; /* Full-1.5K */
184 : : break;
185 : :
186 : 0 : default:
187 : 0 : rfd = 0x07; /* Full-4.5K */
188 : 0 : rfa = 0x04; /* Full-3K */
189 : 0 : break;
190 : : }
191 : :
192 : 0 : flow &= ~XGMAC_RFD;
193 : 0 : flow |= rfd << XGMAC_RFD_SHIFT;
194 : :
195 : 0 : flow &= ~XGMAC_RFA;
196 : 0 : flow |= rfa << XGMAC_RFA_SHIFT;
197 : :
198 : 0 : writel(flow, ioaddr + XGMAC_MTL_RXQ_FLOW_CONTROL(channel));
199 : : }
200 : :
201 : 0 : writel(value, ioaddr + XGMAC_MTL_RXQ_OPMODE(channel));
202 : :
203 : : /* Enable MTL RX overflow */
204 : 0 : value = readl(ioaddr + XGMAC_MTL_QINTEN(channel));
205 : 0 : writel(value | XGMAC_RXOIE, ioaddr + XGMAC_MTL_QINTEN(channel));
206 : 0 : }
207 : :
208 : 0 : static void dwxgmac2_dma_tx_mode(void __iomem *ioaddr, int mode,
209 : : u32 channel, int fifosz, u8 qmode)
210 : : {
211 : 0 : u32 value = readl(ioaddr + XGMAC_MTL_TXQ_OPMODE(channel));
212 : 0 : unsigned int tqs = fifosz / 256 - 1;
213 : :
214 [ # # ]: 0 : if (mode == SF_DMA_MODE) {
215 : 0 : value |= XGMAC_TSF;
216 : : } else {
217 : 0 : value &= ~XGMAC_TSF;
218 : 0 : value &= ~XGMAC_TTC;
219 : :
220 [ # # ]: 0 : if (mode <= 64)
221 : : value |= 0x0 << XGMAC_TTC_SHIFT;
222 [ # # ]: 0 : else if (mode <= 96)
223 : 0 : value |= 0x2 << XGMAC_TTC_SHIFT;
224 [ # # ]: 0 : else if (mode <= 128)
225 : 0 : value |= 0x3 << XGMAC_TTC_SHIFT;
226 [ # # ]: 0 : else if (mode <= 192)
227 : 0 : value |= 0x4 << XGMAC_TTC_SHIFT;
228 [ # # ]: 0 : else if (mode <= 256)
229 : 0 : value |= 0x5 << XGMAC_TTC_SHIFT;
230 [ # # ]: 0 : else if (mode <= 384)
231 : 0 : value |= 0x6 << XGMAC_TTC_SHIFT;
232 : : else
233 : 0 : value |= 0x7 << XGMAC_TTC_SHIFT;
234 : : }
235 : :
236 : : /* Use static TC to Queue mapping */
237 : 0 : value |= (channel << XGMAC_Q2TCMAP_SHIFT) & XGMAC_Q2TCMAP;
238 : :
239 : 0 : value &= ~XGMAC_TXQEN;
240 [ # # ]: 0 : if (qmode != MTL_QUEUE_AVB)
241 : 0 : value |= 0x2 << XGMAC_TXQEN_SHIFT;
242 : : else
243 : 0 : value |= 0x1 << XGMAC_TXQEN_SHIFT;
244 : :
245 : 0 : value &= ~XGMAC_TQS;
246 : 0 : value |= (tqs << XGMAC_TQS_SHIFT) & XGMAC_TQS;
247 : :
248 : 0 : writel(value, ioaddr + XGMAC_MTL_TXQ_OPMODE(channel));
249 : 0 : }
250 : :
251 : 0 : static void dwxgmac2_enable_dma_irq(void __iomem *ioaddr, u32 chan,
252 : : bool rx, bool tx)
253 : : {
254 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_CH_INT_EN(chan));
255 : :
256 [ # # ]: 0 : if (rx)
257 : 0 : value |= XGMAC_DMA_INT_DEFAULT_RX;
258 [ # # ]: 0 : if (tx)
259 : 0 : value |= XGMAC_DMA_INT_DEFAULT_TX;
260 : :
261 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_INT_EN(chan));
262 : 0 : }
263 : :
264 : 0 : static void dwxgmac2_disable_dma_irq(void __iomem *ioaddr, u32 chan,
265 : : bool rx, bool tx)
266 : : {
267 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_CH_INT_EN(chan));
268 : :
269 [ # # ]: 0 : if (rx)
270 : 0 : value &= ~XGMAC_DMA_INT_DEFAULT_RX;
271 [ # # ]: 0 : if (tx)
272 : 0 : value &= ~XGMAC_DMA_INT_DEFAULT_TX;
273 : :
274 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_INT_EN(chan));
275 : 0 : }
276 : :
277 : 0 : static void dwxgmac2_dma_start_tx(void __iomem *ioaddr, u32 chan)
278 : : {
279 : 0 : u32 value;
280 : :
281 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
282 : 0 : value |= XGMAC_TXST;
283 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
284 : :
285 : 0 : value = readl(ioaddr + XGMAC_TX_CONFIG);
286 : 0 : value |= XGMAC_CONFIG_TE;
287 : 0 : writel(value, ioaddr + XGMAC_TX_CONFIG);
288 : 0 : }
289 : :
290 : 0 : static void dwxgmac2_dma_stop_tx(void __iomem *ioaddr, u32 chan)
291 : : {
292 : 0 : u32 value;
293 : :
294 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
295 : 0 : value &= ~XGMAC_TXST;
296 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
297 : :
298 : 0 : value = readl(ioaddr + XGMAC_TX_CONFIG);
299 : 0 : value &= ~XGMAC_CONFIG_TE;
300 : 0 : writel(value, ioaddr + XGMAC_TX_CONFIG);
301 : 0 : }
302 : :
303 : 0 : static void dwxgmac2_dma_start_rx(void __iomem *ioaddr, u32 chan)
304 : : {
305 : 0 : u32 value;
306 : :
307 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
308 : 0 : value |= XGMAC_RXST;
309 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
310 : :
311 : 0 : value = readl(ioaddr + XGMAC_RX_CONFIG);
312 : 0 : value |= XGMAC_CONFIG_RE;
313 : 0 : writel(value, ioaddr + XGMAC_RX_CONFIG);
314 : 0 : }
315 : :
316 : 0 : static void dwxgmac2_dma_stop_rx(void __iomem *ioaddr, u32 chan)
317 : : {
318 : 0 : u32 value;
319 : :
320 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
321 : 0 : value &= ~XGMAC_RXST;
322 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
323 : 0 : }
324 : :
325 : 0 : static int dwxgmac2_dma_interrupt(void __iomem *ioaddr,
326 : : struct stmmac_extra_stats *x, u32 chan)
327 : : {
328 : 0 : u32 intr_status = readl(ioaddr + XGMAC_DMA_CH_STATUS(chan));
329 : 0 : u32 intr_en = readl(ioaddr + XGMAC_DMA_CH_INT_EN(chan));
330 : 0 : int ret = 0;
331 : :
332 : : /* ABNORMAL interrupts */
333 [ # # ]: 0 : if (unlikely(intr_status & XGMAC_AIS)) {
334 [ # # ]: 0 : if (unlikely(intr_status & XGMAC_RBU)) {
335 : 0 : x->rx_buf_unav_irq++;
336 : 0 : ret |= handle_rx;
337 : : }
338 [ # # ]: 0 : if (unlikely(intr_status & XGMAC_TPS)) {
339 : 0 : x->tx_process_stopped_irq++;
340 : 0 : ret |= tx_hard_error;
341 : : }
342 [ # # ]: 0 : if (unlikely(intr_status & XGMAC_FBE)) {
343 : 0 : x->fatal_bus_error_irq++;
344 : 0 : ret |= tx_hard_error;
345 : : }
346 : : }
347 : :
348 : : /* TX/RX NORMAL interrupts */
349 [ # # ]: 0 : if (likely(intr_status & XGMAC_NIS)) {
350 : 0 : x->normal_irq_n++;
351 : :
352 [ # # ]: 0 : if (likely(intr_status & XGMAC_RI)) {
353 : 0 : x->rx_normal_irq_n++;
354 : 0 : ret |= handle_rx;
355 : : }
356 [ # # ]: 0 : if (likely(intr_status & (XGMAC_TI | XGMAC_TBU))) {
357 : 0 : x->tx_normal_irq_n++;
358 : 0 : ret |= handle_tx;
359 : : }
360 : : }
361 : :
362 : : /* Clear interrupts */
363 : 0 : writel(intr_en & intr_status, ioaddr + XGMAC_DMA_CH_STATUS(chan));
364 : :
365 : 0 : return ret;
366 : : }
367 : :
368 : 0 : static void dwxgmac2_get_hw_feature(void __iomem *ioaddr,
369 : : struct dma_features *dma_cap)
370 : : {
371 : 0 : u32 hw_cap;
372 : :
373 : : /* MAC HW feature 0 */
374 : 0 : hw_cap = readl(ioaddr + XGMAC_HW_FEATURE0);
375 : 0 : dma_cap->vlins = (hw_cap & XGMAC_HWFEAT_SAVLANINS) >> 27;
376 : 0 : dma_cap->rx_coe = (hw_cap & XGMAC_HWFEAT_RXCOESEL) >> 16;
377 : 0 : dma_cap->tx_coe = (hw_cap & XGMAC_HWFEAT_TXCOESEL) >> 14;
378 : 0 : dma_cap->eee = (hw_cap & XGMAC_HWFEAT_EEESEL) >> 13;
379 : 0 : dma_cap->atime_stamp = (hw_cap & XGMAC_HWFEAT_TSSEL) >> 12;
380 : 0 : dma_cap->av = (hw_cap & XGMAC_HWFEAT_AVSEL) >> 11;
381 : 0 : dma_cap->av &= !((hw_cap & XGMAC_HWFEAT_RAVSEL) >> 10);
382 : 0 : dma_cap->arpoffsel = (hw_cap & XGMAC_HWFEAT_ARPOFFSEL) >> 9;
383 : 0 : dma_cap->rmon = (hw_cap & XGMAC_HWFEAT_MMCSEL) >> 8;
384 : 0 : dma_cap->pmt_magic_frame = (hw_cap & XGMAC_HWFEAT_MGKSEL) >> 7;
385 : 0 : dma_cap->pmt_remote_wake_up = (hw_cap & XGMAC_HWFEAT_RWKSEL) >> 6;
386 : 0 : dma_cap->vlhash = (hw_cap & XGMAC_HWFEAT_VLHASH) >> 4;
387 : 0 : dma_cap->mbps_1000 = (hw_cap & XGMAC_HWFEAT_GMIISEL) >> 1;
388 : :
389 : : /* MAC HW feature 1 */
390 : 0 : hw_cap = readl(ioaddr + XGMAC_HW_FEATURE1);
391 : 0 : dma_cap->l3l4fnum = (hw_cap & XGMAC_HWFEAT_L3L4FNUM) >> 27;
392 : 0 : dma_cap->hash_tb_sz = (hw_cap & XGMAC_HWFEAT_HASHTBLSZ) >> 24;
393 : 0 : dma_cap->rssen = (hw_cap & XGMAC_HWFEAT_RSSEN) >> 20;
394 : 0 : dma_cap->tsoen = (hw_cap & XGMAC_HWFEAT_TSOEN) >> 18;
395 : 0 : dma_cap->sphen = (hw_cap & XGMAC_HWFEAT_SPHEN) >> 17;
396 : :
397 : 0 : dma_cap->addr64 = (hw_cap & XGMAC_HWFEAT_ADDR64) >> 14;
398 [ # # # # ]: 0 : switch (dma_cap->addr64) {
399 : 0 : case 0:
400 : 0 : dma_cap->addr64 = 32;
401 : 0 : break;
402 : 0 : case 1:
403 : 0 : dma_cap->addr64 = 40;
404 : 0 : break;
405 : 0 : case 2:
406 : 0 : dma_cap->addr64 = 48;
407 : 0 : break;
408 : 0 : default:
409 : 0 : dma_cap->addr64 = 32;
410 : 0 : break;
411 : : }
412 : :
413 : 0 : dma_cap->tx_fifo_size =
414 : 0 : 128 << ((hw_cap & XGMAC_HWFEAT_TXFIFOSIZE) >> 6);
415 : 0 : dma_cap->rx_fifo_size =
416 : 0 : 128 << ((hw_cap & XGMAC_HWFEAT_RXFIFOSIZE) >> 0);
417 : :
418 : : /* MAC HW feature 2 */
419 : 0 : hw_cap = readl(ioaddr + XGMAC_HW_FEATURE2);
420 : 0 : dma_cap->pps_out_num = (hw_cap & XGMAC_HWFEAT_PPSOUTNUM) >> 24;
421 : 0 : dma_cap->number_tx_channel =
422 : 0 : ((hw_cap & XGMAC_HWFEAT_TXCHCNT) >> 18) + 1;
423 : 0 : dma_cap->number_rx_channel =
424 : 0 : ((hw_cap & XGMAC_HWFEAT_RXCHCNT) >> 12) + 1;
425 : 0 : dma_cap->number_tx_queues =
426 : 0 : ((hw_cap & XGMAC_HWFEAT_TXQCNT) >> 6) + 1;
427 : 0 : dma_cap->number_rx_queues =
428 : 0 : ((hw_cap & XGMAC_HWFEAT_RXQCNT) >> 0) + 1;
429 : :
430 : : /* MAC HW feature 3 */
431 : 0 : hw_cap = readl(ioaddr + XGMAC_HW_FEATURE3);
432 : 0 : dma_cap->tbssel = (hw_cap & XGMAC_HWFEAT_TBSSEL) >> 27;
433 : 0 : dma_cap->fpesel = (hw_cap & XGMAC_HWFEAT_FPESEL) >> 26;
434 : 0 : dma_cap->estwid = (hw_cap & XGMAC_HWFEAT_ESTWID) >> 23;
435 : 0 : dma_cap->estdep = (hw_cap & XGMAC_HWFEAT_ESTDEP) >> 20;
436 : 0 : dma_cap->estsel = (hw_cap & XGMAC_HWFEAT_ESTSEL) >> 19;
437 : 0 : dma_cap->asp = (hw_cap & XGMAC_HWFEAT_ASP) >> 14;
438 : 0 : dma_cap->dvlan = (hw_cap & XGMAC_HWFEAT_DVLAN) >> 13;
439 : 0 : dma_cap->frpes = (hw_cap & XGMAC_HWFEAT_FRPES) >> 11;
440 : 0 : dma_cap->frpbs = (hw_cap & XGMAC_HWFEAT_FRPPB) >> 9;
441 : 0 : dma_cap->frpsel = (hw_cap & XGMAC_HWFEAT_FRPSEL) >> 3;
442 : 0 : }
443 : :
444 : 0 : static void dwxgmac2_rx_watchdog(void __iomem *ioaddr, u32 riwt, u32 nchan)
445 : : {
446 : 0 : u32 i;
447 : :
448 [ # # ]: 0 : for (i = 0; i < nchan; i++)
449 : 0 : writel(riwt & XGMAC_RWT, ioaddr + XGMAC_DMA_CH_Rx_WATCHDOG(i));
450 : 0 : }
451 : :
452 : 0 : static void dwxgmac2_set_rx_ring_len(void __iomem *ioaddr, u32 len, u32 chan)
453 : : {
454 : 0 : writel(len, ioaddr + XGMAC_DMA_CH_RxDESC_RING_LEN(chan));
455 : 0 : }
456 : :
457 : 0 : static void dwxgmac2_set_tx_ring_len(void __iomem *ioaddr, u32 len, u32 chan)
458 : : {
459 : 0 : writel(len, ioaddr + XGMAC_DMA_CH_TxDESC_RING_LEN(chan));
460 : 0 : }
461 : :
462 : 0 : static void dwxgmac2_set_rx_tail_ptr(void __iomem *ioaddr, u32 ptr, u32 chan)
463 : : {
464 : 0 : writel(ptr, ioaddr + XGMAC_DMA_CH_RxDESC_TAIL_LPTR(chan));
465 : 0 : }
466 : :
467 : 0 : static void dwxgmac2_set_tx_tail_ptr(void __iomem *ioaddr, u32 ptr, u32 chan)
468 : : {
469 : 0 : writel(ptr, ioaddr + XGMAC_DMA_CH_TxDESC_TAIL_LPTR(chan));
470 : 0 : }
471 : :
472 : 0 : static void dwxgmac2_enable_tso(void __iomem *ioaddr, bool en, u32 chan)
473 : : {
474 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
475 : :
476 [ # # ]: 0 : if (en)
477 : 0 : value |= XGMAC_TSE;
478 : : else
479 : 0 : value &= ~XGMAC_TSE;
480 : :
481 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
482 : 0 : }
483 : :
484 : 0 : static void dwxgmac2_qmode(void __iomem *ioaddr, u32 channel, u8 qmode)
485 : : {
486 : 0 : u32 value = readl(ioaddr + XGMAC_MTL_TXQ_OPMODE(channel));
487 : 0 : u32 flow = readl(ioaddr + XGMAC_RX_FLOW_CTRL);
488 : :
489 : 0 : value &= ~XGMAC_TXQEN;
490 [ # # ]: 0 : if (qmode != MTL_QUEUE_AVB) {
491 : 0 : value |= 0x2 << XGMAC_TXQEN_SHIFT;
492 : 0 : writel(0, ioaddr + XGMAC_MTL_TCx_ETS_CONTROL(channel));
493 : : } else {
494 : 0 : value |= 0x1 << XGMAC_TXQEN_SHIFT;
495 : 0 : writel(flow & (~XGMAC_RFE), ioaddr + XGMAC_RX_FLOW_CTRL);
496 : : }
497 : :
498 : 0 : writel(value, ioaddr + XGMAC_MTL_TXQ_OPMODE(channel));
499 : 0 : }
500 : :
501 : 0 : static void dwxgmac2_set_bfsize(void __iomem *ioaddr, int bfsize, u32 chan)
502 : : {
503 : 0 : u32 value;
504 : :
505 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
506 : 0 : value &= ~XGMAC_RBSZ;
507 : 0 : value |= bfsize << XGMAC_RBSZ_SHIFT;
508 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_RX_CONTROL(chan));
509 : 0 : }
510 : :
511 : 0 : static void dwxgmac2_enable_sph(void __iomem *ioaddr, bool en, u32 chan)
512 : : {
513 : 0 : u32 value = readl(ioaddr + XGMAC_RX_CONFIG);
514 : :
515 : 0 : value &= ~XGMAC_CONFIG_HDSMS;
516 : 0 : value |= XGMAC_CONFIG_HDSMS_256; /* Segment max 256 bytes */
517 : 0 : writel(value, ioaddr + XGMAC_RX_CONFIG);
518 : :
519 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_CONTROL(chan));
520 [ # # ]: 0 : if (en)
521 : 0 : value |= XGMAC_SPH;
522 : : else
523 : 0 : value &= ~XGMAC_SPH;
524 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_CONTROL(chan));
525 : 0 : }
526 : :
527 : 0 : static int dwxgmac2_enable_tbs(void __iomem *ioaddr, bool en, u32 chan)
528 : : {
529 : 0 : u32 value = readl(ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
530 : :
531 [ # # ]: 0 : if (en)
532 : 0 : value |= XGMAC_EDSE;
533 : : else
534 : 0 : value &= ~XGMAC_EDSE;
535 : :
536 : 0 : writel(value, ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan));
537 : :
538 : 0 : value = readl(ioaddr + XGMAC_DMA_CH_TX_CONTROL(chan)) & XGMAC_EDSE;
539 [ # # # # ]: 0 : if (en && !value)
540 : : return -EIO;
541 : :
542 : 0 : writel(XGMAC_DEF_FTOS, ioaddr + XGMAC_DMA_TBS_CTRL0);
543 : 0 : writel(XGMAC_DEF_FTOS, ioaddr + XGMAC_DMA_TBS_CTRL1);
544 : 0 : writel(XGMAC_DEF_FTOS, ioaddr + XGMAC_DMA_TBS_CTRL2);
545 : 0 : writel(XGMAC_DEF_FTOS, ioaddr + XGMAC_DMA_TBS_CTRL3);
546 : 0 : return 0;
547 : : }
548 : :
549 : : const struct stmmac_dma_ops dwxgmac210_dma_ops = {
550 : : .reset = dwxgmac2_dma_reset,
551 : : .init = dwxgmac2_dma_init,
552 : : .init_chan = dwxgmac2_dma_init_chan,
553 : : .init_rx_chan = dwxgmac2_dma_init_rx_chan,
554 : : .init_tx_chan = dwxgmac2_dma_init_tx_chan,
555 : : .axi = dwxgmac2_dma_axi,
556 : : .dump_regs = dwxgmac2_dma_dump_regs,
557 : : .dma_rx_mode = dwxgmac2_dma_rx_mode,
558 : : .dma_tx_mode = dwxgmac2_dma_tx_mode,
559 : : .enable_dma_irq = dwxgmac2_enable_dma_irq,
560 : : .disable_dma_irq = dwxgmac2_disable_dma_irq,
561 : : .start_tx = dwxgmac2_dma_start_tx,
562 : : .stop_tx = dwxgmac2_dma_stop_tx,
563 : : .start_rx = dwxgmac2_dma_start_rx,
564 : : .stop_rx = dwxgmac2_dma_stop_rx,
565 : : .dma_interrupt = dwxgmac2_dma_interrupt,
566 : : .get_hw_feature = dwxgmac2_get_hw_feature,
567 : : .rx_watchdog = dwxgmac2_rx_watchdog,
568 : : .set_rx_ring_len = dwxgmac2_set_rx_ring_len,
569 : : .set_tx_ring_len = dwxgmac2_set_tx_ring_len,
570 : : .set_rx_tail_ptr = dwxgmac2_set_rx_tail_ptr,
571 : : .set_tx_tail_ptr = dwxgmac2_set_tx_tail_ptr,
572 : : .enable_tso = dwxgmac2_enable_tso,
573 : : .qmode = dwxgmac2_qmode,
574 : : .set_bfsize = dwxgmac2_set_bfsize,
575 : : .enable_sph = dwxgmac2_enable_sph,
576 : : .enable_tbs = dwxgmac2_enable_tbs,
577 : : };
|