Branch data Line data Source code
1 : : // SPDX-License-Identifier: GPL-2.0
2 : : /*
3 : : * INET An implementation of the TCP/IP protocol suite for the LINUX
4 : : * operating system. INET is implemented using the BSD Socket
5 : : * interface as the means of communication with the user level.
6 : : *
7 : : * Implementation of the Transmission Control Protocol(TCP).
8 : : *
9 : : * Authors: Ross Biro
10 : : * Fred N. van Kempen, <waltje@uWalt.NL.Mugnet.ORG>
11 : : * Mark Evans, <evansmp@uhura.aston.ac.uk>
12 : : * Corey Minyard <wf-rch!minyard@relay.EU.net>
13 : : * Florian La Roche, <flla@stud.uni-sb.de>
14 : : * Charles Hedrick, <hedrick@klinzhai.rutgers.edu>
15 : : * Linus Torvalds, <torvalds@cs.helsinki.fi>
16 : : * Alan Cox, <gw4pts@gw4pts.ampr.org>
17 : : * Matthew Dillon, <dillon@apollo.west.oic.com>
18 : : * Arnt Gulbrandsen, <agulbra@nvg.unit.no>
19 : : * Jorge Cwik, <jorge@laser.satlink.net>
20 : : */
21 : :
22 : : /*
23 : : * Changes:
24 : : * Pedro Roque : Fast Retransmit/Recovery.
25 : : * Two receive queues.
26 : : * Retransmit queue handled by TCP.
27 : : * Better retransmit timer handling.
28 : : * New congestion avoidance.
29 : : * Header prediction.
30 : : * Variable renaming.
31 : : *
32 : : * Eric : Fast Retransmit.
33 : : * Randy Scott : MSS option defines.
34 : : * Eric Schenk : Fixes to slow start algorithm.
35 : : * Eric Schenk : Yet another double ACK bug.
36 : : * Eric Schenk : Delayed ACK bug fixes.
37 : : * Eric Schenk : Floyd style fast retrans war avoidance.
38 : : * David S. Miller : Don't allow zero congestion window.
39 : : * Eric Schenk : Fix retransmitter so that it sends
40 : : * next packet on ack of previous packet.
41 : : * Andi Kleen : Moved open_request checking here
42 : : * and process RSTs for open_requests.
43 : : * Andi Kleen : Better prune_queue, and other fixes.
44 : : * Andrey Savochkin: Fix RTT measurements in the presence of
45 : : * timestamps.
46 : : * Andrey Savochkin: Check sequence numbers correctly when
47 : : * removing SACKs due to in sequence incoming
48 : : * data segments.
49 : : * Andi Kleen: Make sure we never ack data there is not
50 : : * enough room for. Also make this condition
51 : : * a fatal error if it might still happen.
52 : : * Andi Kleen: Add tcp_measure_rcv_mss to make
53 : : * connections with MSS<min(MTU,ann. MSS)
54 : : * work without delayed acks.
55 : : * Andi Kleen: Process packets with PSH set in the
56 : : * fast path.
57 : : * J Hadi Salim: ECN support
58 : : * Andrei Gurtov,
59 : : * Pasi Sarolahti,
60 : : * Panu Kuhlberg: Experimental audit of TCP (re)transmission
61 : : * engine. Lots of bugs are found.
62 : : * Pasi Sarolahti: F-RTO for dealing with spurious RTOs
63 : : */
64 : :
65 : : #define pr_fmt(fmt) "TCP: " fmt
66 : :
67 : : #include <linux/mm.h>
68 : : #include <linux/slab.h>
69 : : #include <linux/module.h>
70 : : #include <linux/sysctl.h>
71 : : #include <linux/kernel.h>
72 : : #include <linux/prefetch.h>
73 : : #include <net/dst.h>
74 : : #include <net/tcp.h>
75 : : #include <net/inet_common.h>
76 : : #include <linux/ipsec.h>
77 : : #include <asm/unaligned.h>
78 : : #include <linux/errqueue.h>
79 : : #include <trace/events/tcp.h>
80 : : #include <linux/jump_label_ratelimit.h>
81 : : #include <net/busy_poll.h>
82 : :
83 : : int sysctl_tcp_max_orphans __read_mostly = NR_FILE;
84 : :
85 : : #define FLAG_DATA 0x01 /* Incoming frame contained data. */
86 : : #define FLAG_WIN_UPDATE 0x02 /* Incoming ACK was a window update. */
87 : : #define FLAG_DATA_ACKED 0x04 /* This ACK acknowledged new data. */
88 : : #define FLAG_RETRANS_DATA_ACKED 0x08 /* "" "" some of which was retransmitted. */
89 : : #define FLAG_SYN_ACKED 0x10 /* This ACK acknowledged SYN. */
90 : : #define FLAG_DATA_SACKED 0x20 /* New SACK. */
91 : : #define FLAG_ECE 0x40 /* ECE in this ACK */
92 : : #define FLAG_LOST_RETRANS 0x80 /* This ACK marks some retransmission lost */
93 : : #define FLAG_SLOWPATH 0x100 /* Do not skip RFC checks for window update.*/
94 : : #define FLAG_ORIG_SACK_ACKED 0x200 /* Never retransmitted data are (s)acked */
95 : : #define FLAG_SND_UNA_ADVANCED 0x400 /* Snd_una was changed (!= FLAG_DATA_ACKED) */
96 : : #define FLAG_DSACKING_ACK 0x800 /* SACK blocks contained D-SACK info */
97 : : #define FLAG_SET_XMIT_TIMER 0x1000 /* Set TLP or RTO timer */
98 : : #define FLAG_SACK_RENEGING 0x2000 /* snd_una advanced to a sacked seq */
99 : : #define FLAG_UPDATE_TS_RECENT 0x4000 /* tcp_replace_ts_recent() */
100 : : #define FLAG_NO_CHALLENGE_ACK 0x8000 /* do not call tcp_send_challenge_ack() */
101 : : #define FLAG_ACK_MAYBE_DELAYED 0x10000 /* Likely a delayed ACK */
102 : :
103 : : #define FLAG_ACKED (FLAG_DATA_ACKED|FLAG_SYN_ACKED)
104 : : #define FLAG_NOT_DUP (FLAG_DATA|FLAG_WIN_UPDATE|FLAG_ACKED)
105 : : #define FLAG_CA_ALERT (FLAG_DATA_SACKED|FLAG_ECE|FLAG_DSACKING_ACK)
106 : : #define FLAG_FORWARD_PROGRESS (FLAG_ACKED|FLAG_DATA_SACKED)
107 : :
108 : : #define TCP_REMNANT (TCP_FLAG_FIN|TCP_FLAG_URG|TCP_FLAG_SYN|TCP_FLAG_PSH)
109 : : #define TCP_HP_BITS (~(TCP_RESERVED_BITS|TCP_FLAG_PSH))
110 : :
111 : : #define REXMIT_NONE 0 /* no loss recovery to do */
112 : : #define REXMIT_LOST 1 /* retransmit packets marked lost */
113 : : #define REXMIT_NEW 2 /* FRTO-style transmit of unsent/new packets */
114 : :
115 : : #if IS_ENABLED(CONFIG_TLS_DEVICE)
116 : : static DEFINE_STATIC_KEY_DEFERRED_FALSE(clean_acked_data_enabled, HZ);
117 : :
118 : : void clean_acked_data_enable(struct inet_connection_sock *icsk,
119 : : void (*cad)(struct sock *sk, u32 ack_seq))
120 : : {
121 : : icsk->icsk_clean_acked = cad;
122 : : static_branch_deferred_inc(&clean_acked_data_enabled);
123 : : }
124 : : EXPORT_SYMBOL_GPL(clean_acked_data_enable);
125 : :
126 : : void clean_acked_data_disable(struct inet_connection_sock *icsk)
127 : : {
128 : : static_branch_slow_dec_deferred(&clean_acked_data_enabled);
129 : : icsk->icsk_clean_acked = NULL;
130 : : }
131 : : EXPORT_SYMBOL_GPL(clean_acked_data_disable);
132 : :
133 : : void clean_acked_data_flush(void)
134 : : {
135 : : static_key_deferred_flush(&clean_acked_data_enabled);
136 : : }
137 : : EXPORT_SYMBOL_GPL(clean_acked_data_flush);
138 : : #endif
139 : :
140 : 0 : static void tcp_gro_dev_warn(struct sock *sk, const struct sk_buff *skb,
141 : : unsigned int len)
142 : : {
143 : : static bool __once __read_mostly;
144 : :
145 [ # # ]: 0 : if (!__once) {
146 : : struct net_device *dev;
147 : :
148 : 0 : __once = true;
149 : :
150 : : rcu_read_lock();
151 : 0 : dev = dev_get_by_index_rcu(sock_net(sk), skb->skb_iif);
152 [ # # # # ]: 0 : if (!dev || len >= dev->mtu)
153 [ # # ]: 0 : pr_warn("%s: Driver has suspect GRO implementation, TCP performance may be compromised.\n",
154 : : dev ? dev->name : "Unknown driver");
155 : : rcu_read_unlock();
156 : : }
157 : 0 : }
158 : :
159 : : /* Adapt the MSS value used to make delayed ack decision to the
160 : : * real world.
161 : : */
162 : 6586 : static void tcp_measure_rcv_mss(struct sock *sk, const struct sk_buff *skb)
163 : : {
164 : : struct inet_connection_sock *icsk = inet_csk(sk);
165 : 6586 : const unsigned int lss = icsk->icsk_ack.last_seg_size;
166 : : unsigned int len;
167 : :
168 : 6586 : icsk->icsk_ack.last_seg_size = 0;
169 : :
170 : : /* skb->len may jitter because of SACKs, even if peer
171 : : * sends good full-sized frames.
172 : : */
173 [ + + ]: 6586 : len = skb_shinfo(skb)->gso_size ? : skb->len;
174 [ + + ]: 6586 : if (len >= icsk->icsk_ack.rcv_mss) {
175 : 6118 : icsk->icsk_ack.rcv_mss = min_t(unsigned int, len,
176 : : tcp_sk(sk)->advmss);
177 : : /* Account for possibly-removed options */
178 [ - + ]: 6118 : if (unlikely(len > icsk->icsk_ack.rcv_mss +
179 : : MAX_TCP_OPTION_SPACE))
180 : 0 : tcp_gro_dev_warn(sk, skb, len);
181 : : } else {
182 : : /* Otherwise, we make more careful check taking into account,
183 : : * that SACKs block is variable.
184 : : *
185 : : * "len" is invariant segment length, including TCP header.
186 : : */
187 : 936 : len += skb->data - skb_transport_header(skb);
188 [ + + + + ]: 468 : if (len >= TCP_MSS_DEFAULT + sizeof(struct tcphdr) ||
189 : : /* If PSH is not set, packet should be
190 : : * full sized, provided peer TCP is not badly broken.
191 : : * This observation (if it is correct 8)) allows
192 : : * to handle super-low mtu links fairly.
193 : : */
194 [ - + ]: 90 : (len >= TCP_MIN_MSS + sizeof(struct tcphdr) &&
195 : 90 : !(tcp_flag_word(tcp_hdr(skb)) & TCP_REMNANT))) {
196 : : /* Subtract also invariant (if peer is RFC compliant),
197 : : * tcp header plus fixed timestamp option length.
198 : : * Resulting "len" is MSS free of SACK jitter.
199 : : */
200 : 280 : len -= tcp_sk(sk)->tcp_header_len;
201 : 280 : icsk->icsk_ack.last_seg_size = len;
202 [ + + ]: 280 : if (len == lss) {
203 : 12 : icsk->icsk_ack.rcv_mss = len;
204 : 6598 : return;
205 : : }
206 : : }
207 [ + + ]: 456 : if (icsk->icsk_ack.pending & ICSK_ACK_PUSHED)
208 : 8 : icsk->icsk_ack.pending |= ICSK_ACK_PUSHED2;
209 : 456 : icsk->icsk_ack.pending |= ICSK_ACK_PUSHED;
210 : : }
211 : : }
212 : :
213 : : static void tcp_incr_quickack(struct sock *sk, unsigned int max_quickacks)
214 : : {
215 : : struct inet_connection_sock *icsk = inet_csk(sk);
216 : 146 : unsigned int quickacks = tcp_sk(sk)->rcv_wnd / (2 * icsk->icsk_ack.rcv_mss);
217 : :
218 [ # # - + : 146 : if (quickacks == 0)
# # - + -
+ # # # #
# # ]
219 : : quickacks = 2;
220 : 146 : quickacks = min(quickacks, max_quickacks);
221 [ # # + - : 146 : if (quickacks > icsk->icsk_ack.quick)
# # + - +
- # # # #
# # ]
222 : 146 : icsk->icsk_ack.quick = quickacks;
223 : : }
224 : :
225 : 0 : void tcp_enter_quickack_mode(struct sock *sk, unsigned int max_quickacks)
226 : : {
227 : : struct inet_connection_sock *icsk = inet_csk(sk);
228 : :
229 : : tcp_incr_quickack(sk, max_quickacks);
230 : : inet_csk_exit_pingpong_mode(sk);
231 : 2 : icsk->icsk_ack.ato = TCP_ATO_MIN;
232 : 0 : }
233 : : EXPORT_SYMBOL(tcp_enter_quickack_mode);
234 : :
235 : : /* Send ACKs quickly, if "quick" count is not exhausted
236 : : * and the session is not interactive.
237 : : */
238 : :
239 : 4956 : static bool tcp_in_quickack_mode(struct sock *sk)
240 : : {
241 : : const struct inet_connection_sock *icsk = inet_csk(sk);
242 : : const struct dst_entry *dst = __sk_dst_get(sk);
243 : :
244 [ + - + - : 14868 : return (dst && dst_metric(dst, RTAX_QUICKACK)) ||
+ + ]
245 [ + + ]: 7664 : (icsk->icsk_ack.quick && !inet_csk_in_pingpong_mode(sk));
246 : : }
247 : :
248 : : static void tcp_ecn_queue_cwr(struct tcp_sock *tp)
249 : : {
250 [ # # - + ]: 6 : if (tp->ecn_flags & TCP_ECN_OK)
251 : 0 : tp->ecn_flags |= TCP_ECN_QUEUE_CWR;
252 : : }
253 : :
254 : : static void tcp_ecn_accept_cwr(struct sock *sk, const struct sk_buff *skb)
255 : : {
256 [ - + ]: 1370 : if (tcp_hdr(skb)->cwr) {
257 : 0 : tcp_sk(sk)->ecn_flags &= ~TCP_ECN_DEMAND_CWR;
258 : :
259 : : /* If the sender is telling us it has entered CWR, then its
260 : : * cwnd may be very low (even just 1 packet), so we should ACK
261 : : * immediately.
262 : : */
263 [ # # ]: 0 : if (TCP_SKB_CB(skb)->seq != TCP_SKB_CB(skb)->end_seq)
264 : 0 : inet_csk(sk)->icsk_ack.pending |= ICSK_ACK_NOW;
265 : : }
266 : : }
267 : :
268 : : static void tcp_ecn_withdraw_cwr(struct tcp_sock *tp)
269 : : {
270 : 2 : tp->ecn_flags &= ~TCP_ECN_QUEUE_CWR;
271 : : }
272 : :
273 : 0 : static void __tcp_ecn_check_ce(struct sock *sk, const struct sk_buff *skb)
274 : : {
275 : : struct tcp_sock *tp = tcp_sk(sk);
276 : :
277 [ # # # ]: 0 : switch (TCP_SKB_CB(skb)->ip_dsfield & INET_ECN_MASK) {
278 : : case INET_ECN_NOT_ECT:
279 : : /* Funny extension: if ECT is not set on a segment,
280 : : * and we already seen ECT on a previous segment,
281 : : * it is probably a retransmit.
282 : : */
283 [ # # ]: 0 : if (tp->ecn_flags & TCP_ECN_SEEN)
284 : : tcp_enter_quickack_mode(sk, 2);
285 : : break;
286 : : case INET_ECN_CE:
287 [ # # ]: 0 : if (tcp_ca_needs_ecn(sk))
288 : : tcp_ca_event(sk, CA_EVENT_ECN_IS_CE);
289 : :
290 [ # # ]: 0 : if (!(tp->ecn_flags & TCP_ECN_DEMAND_CWR)) {
291 : : /* Better not delay acks, sender can have a very low cwnd */
292 : : tcp_enter_quickack_mode(sk, 2);
293 : 0 : tp->ecn_flags |= TCP_ECN_DEMAND_CWR;
294 : : }
295 : 0 : tp->ecn_flags |= TCP_ECN_SEEN;
296 : 0 : break;
297 : : default:
298 [ # # ]: 0 : if (tcp_ca_needs_ecn(sk))
299 : : tcp_ca_event(sk, CA_EVENT_ECN_NO_CE);
300 : 0 : tp->ecn_flags |= TCP_ECN_SEEN;
301 : 0 : break;
302 : : }
303 : 0 : }
304 : :
305 : : static void tcp_ecn_check_ce(struct sock *sk, const struct sk_buff *skb)
306 : : {
307 [ # # - + ]: 6586 : if (tcp_sk(sk)->ecn_flags & TCP_ECN_OK)
308 : 0 : __tcp_ecn_check_ce(sk, skb);
309 : : }
310 : :
311 : : static void tcp_ecn_rcv_synack(struct tcp_sock *tp, const struct tcphdr *th)
312 : : {
313 [ - + # # ]: 72 : if ((tp->ecn_flags & TCP_ECN_OK) && (!th->ece || th->cwr))
314 : 0 : tp->ecn_flags &= ~TCP_ECN_OK;
315 : : }
316 : :
317 : : static void tcp_ecn_rcv_syn(struct tcp_sock *tp, const struct tcphdr *th)
318 : : {
319 [ # # # # ]: 0 : if ((tp->ecn_flags & TCP_ECN_OK) && (!th->ece || !th->cwr))
320 : 0 : tp->ecn_flags &= ~TCP_ECN_OK;
321 : : }
322 : :
323 : : static bool tcp_ecn_rcv_ecn_echo(const struct tcp_sock *tp, const struct tcphdr *th)
324 : : {
325 [ - + # # ]: 992 : if (th->ece && !th->syn && (tp->ecn_flags & TCP_ECN_OK))
326 : : return true;
327 : : return false;
328 : : }
329 : :
330 : : /* Buffer size and advertised window tuning.
331 : : *
332 : : * 1. Tuning sk->sk_sndbuf, when connection enters established state.
333 : : */
334 : :
335 : 72 : static void tcp_sndbuf_expand(struct sock *sk)
336 : : {
337 : : const struct tcp_sock *tp = tcp_sk(sk);
338 : 72 : const struct tcp_congestion_ops *ca_ops = inet_csk(sk)->icsk_ca_ops;
339 : : int sndmem, per_mss;
340 : : u32 nr_segs;
341 : :
342 : : /* Worst case is non GSO/TSO : each frame consumes one skb
343 : : * and skb->head is kmalloced using power of two area of memory
344 : : */
345 : 144 : per_mss = max_t(u32, tp->rx_opt.mss_clamp, tp->mss_cache) +
346 : 72 : MAX_TCP_HEADER +
347 : : SKB_DATA_ALIGN(sizeof(struct skb_shared_info));
348 : :
349 [ - + # # : 144 : per_mss = roundup_pow_of_two(per_mss) +
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # #
# ]
350 : : SKB_DATA_ALIGN(sizeof(struct sk_buff));
351 : :
352 : 72 : nr_segs = max_t(u32, TCP_INIT_CWND, tp->snd_cwnd);
353 : 72 : nr_segs = max_t(u32, nr_segs, tp->reordering + 1);
354 : :
355 : : /* Fast Recovery (RFC 5681 3.2) :
356 : : * Cubic needs 1.7 factor, rounded to 2 to include
357 : : * extra cushion (application might react slowly to EPOLLOUT)
358 : : */
359 [ - + ]: 72 : sndmem = ca_ops->sndbuf_expand ? ca_ops->sndbuf_expand(sk) : 2;
360 : 72 : sndmem *= nr_segs * per_mss;
361 : :
362 [ + - ]: 72 : if (sk->sk_sndbuf < sndmem)
363 : 72 : WRITE_ONCE(sk->sk_sndbuf,
364 : : min(sndmem, sock_net(sk)->ipv4.sysctl_tcp_wmem[2]));
365 : 72 : }
366 : :
367 : : /* 2. Tuning advertised window (window_clamp, rcv_ssthresh)
368 : : *
369 : : * All tcp_full_space() is split to two parts: "network" buffer, allocated
370 : : * forward and advertised in receiver window (tp->rcv_wnd) and
371 : : * "application buffer", required to isolate scheduling/application
372 : : * latencies from network.
373 : : * window_clamp is maximal advertised window. It can be less than
374 : : * tcp_full_space(), in this case tcp_full_space() - window_clamp
375 : : * is reserved for "application" buffer. The less window_clamp is
376 : : * the smoother our behaviour from viewpoint of network, but the lower
377 : : * throughput and the higher sensitivity of the connection to losses. 8)
378 : : *
379 : : * rcv_ssthresh is more strict window_clamp used at "slow start"
380 : : * phase to predict further behaviour of this connection.
381 : : * It is used for two goals:
382 : : * - to enforce header prediction at sender, even when application
383 : : * requires some significant "application buffer". It is check #1.
384 : : * - to prevent pruning of receive queue because of misprediction
385 : : * of receiver window. Check #2.
386 : : *
387 : : * The scheme does not work when sender sends good segments opening
388 : : * window and then starts to feed us spaghetti. But it should work
389 : : * in common situations. Otherwise, we have to rely on queue collapsing.
390 : : */
391 : :
392 : : /* Slow part of check#2. */
393 : 20 : static int __tcp_grow_window(const struct sock *sk, const struct sk_buff *skb)
394 : : {
395 : : struct tcp_sock *tp = tcp_sk(sk);
396 : : /* Optimize this! */
397 : 40 : int truesize = tcp_win_from_space(sk, skb->truesize) >> 1;
398 : 40 : int window = tcp_win_from_space(sk, sock_net(sk)->ipv4.sysctl_tcp_rmem[2]) >> 1;
399 : :
400 [ + + ]: 50 : while (tp->rcv_ssthresh <= window) {
401 [ + + ]: 28 : if (truesize <= skb->len)
402 : 18 : return 2 * inet_csk(sk)->icsk_ack.rcv_mss;
403 : :
404 : 10 : truesize >>= 1;
405 : 10 : window >>= 1;
406 : : }
407 : : return 0;
408 : : }
409 : :
410 : 6482 : static void tcp_grow_window(struct sock *sk, const struct sk_buff *skb)
411 : : {
412 : : struct tcp_sock *tp = tcp_sk(sk);
413 : : int room;
414 : :
415 : 12964 : room = min_t(int, tp->window_clamp, tcp_space(sk)) - tp->rcv_ssthresh;
416 : :
417 : : /* Check #1 */
418 [ + + + - ]: 6482 : if (room > 0 && !tcp_under_memory_pressure(sk)) {
419 : : int incr;
420 : :
421 : : /* Check #2. Increase window, if skb with such overhead
422 : : * will fit to rcvbuf in future.
423 : : */
424 [ + + ]: 5720 : if (tcp_win_from_space(sk, skb->truesize) <= skb->len)
425 : 2840 : incr = 2 * tp->advmss;
426 : : else
427 : 20 : incr = __tcp_grow_window(sk, skb);
428 : :
429 [ + + ]: 2860 : if (incr) {
430 : 2858 : incr = max_t(int, incr, 2 * skb->len);
431 : 2858 : tp->rcv_ssthresh += min(room, incr);
432 : 2858 : inet_csk(sk)->icsk_ack.quick |= 1;
433 : : }
434 : : }
435 : 6482 : }
436 : :
437 : : /* 3. Try to fixup all. It is made immediately after connection enters
438 : : * established state.
439 : : */
440 : 72 : void tcp_init_buffer_space(struct sock *sk)
441 : : {
442 : 72 : int tcp_app_win = sock_net(sk)->ipv4.sysctl_tcp_app_win;
443 : : struct tcp_sock *tp = tcp_sk(sk);
444 : : int maxwin;
445 : :
446 [ + - ]: 72 : if (!(sk->sk_userlocks & SOCK_SNDBUF_LOCK))
447 : 72 : tcp_sndbuf_expand(sk);
448 : :
449 : 72 : tp->rcvq_space.space = min_t(u32, tp->rcv_wnd, TCP_INIT_CWND * tp->advmss);
450 : 72 : tcp_mstamp_refresh(tp);
451 : 72 : tp->rcvq_space.time = tp->tcp_mstamp;
452 : 72 : tp->rcvq_space.seq = tp->copied_seq;
453 : :
454 : : maxwin = tcp_full_space(sk);
455 : :
456 [ - + ]: 72 : if (tp->window_clamp >= maxwin) {
457 : 0 : tp->window_clamp = maxwin;
458 : :
459 [ # # # # ]: 0 : if (tcp_app_win && maxwin > 4 * tp->advmss)
460 : 0 : tp->window_clamp = max(maxwin -
461 : : (maxwin >> tcp_app_win),
462 : : 4 * tp->advmss);
463 : : }
464 : :
465 : : /* Force reservation of one segment. */
466 [ + - + - ]: 144 : if (tcp_app_win &&
467 [ + - ]: 144 : tp->window_clamp > 2 * tp->advmss &&
468 : 72 : tp->window_clamp + tp->advmss > maxwin)
469 : 72 : tp->window_clamp = max(2 * tp->advmss, maxwin - tp->advmss);
470 : :
471 : 72 : tp->rcv_ssthresh = min(tp->rcv_ssthresh, tp->window_clamp);
472 : 72 : tp->snd_cwnd_stamp = tcp_jiffies32;
473 : 72 : }
474 : :
475 : : /* 4. Recalculate window clamp after socket hit its memory bounds. */
476 : 0 : static void tcp_clamp_window(struct sock *sk)
477 : : {
478 : : struct tcp_sock *tp = tcp_sk(sk);
479 : : struct inet_connection_sock *icsk = inet_csk(sk);
480 : : struct net *net = sock_net(sk);
481 : :
482 : 0 : icsk->icsk_ack.quick = 0;
483 : :
484 [ # # # # ]: 0 : if (sk->sk_rcvbuf < net->ipv4.sysctl_tcp_rmem[2] &&
485 [ # # ]: 0 : !(sk->sk_userlocks & SOCK_RCVBUF_LOCK) &&
486 [ # # ]: 0 : !tcp_under_memory_pressure(sk) &&
487 : : sk_memory_allocated(sk) < sk_prot_mem_limits(sk, 0)) {
488 : 0 : WRITE_ONCE(sk->sk_rcvbuf,
489 : : min(atomic_read(&sk->sk_rmem_alloc),
490 : : net->ipv4.sysctl_tcp_rmem[2]));
491 : : }
492 [ # # ]: 0 : if (atomic_read(&sk->sk_rmem_alloc) > sk->sk_rcvbuf)
493 : 0 : tp->rcv_ssthresh = min(tp->window_clamp, 2U * tp->advmss);
494 : 0 : }
495 : :
496 : : /* Initialize RCV_MSS value.
497 : : * RCV_MSS is an our guess about MSS used by the peer.
498 : : * We haven't any direct information about the MSS.
499 : : * It's better to underestimate the RCV_MSS rather than overestimate.
500 : : * Overestimations make us ACKing less frequently than needed.
501 : : * Underestimations are more easy to detect and fix by tcp_measure_rcv_mss().
502 : : */
503 : 72 : void tcp_initialize_rcv_mss(struct sock *sk)
504 : : {
505 : : const struct tcp_sock *tp = tcp_sk(sk);
506 : 144 : unsigned int hint = min_t(unsigned int, tp->advmss, tp->mss_cache);
507 : :
508 : 144 : hint = min(hint, tp->rcv_wnd / 2);
509 : 144 : hint = min(hint, TCP_MSS_DEFAULT);
510 : 144 : hint = max(hint, TCP_MIN_MSS);
511 : :
512 : 144 : inet_csk(sk)->icsk_ack.rcv_mss = hint;
513 : 72 : }
514 : : EXPORT_SYMBOL(tcp_initialize_rcv_mss);
515 : :
516 : : /* Receiver "autotuning" code.
517 : : *
518 : : * The algorithm for RTT estimation w/o timestamps is based on
519 : : * Dynamic Right-Sizing (DRS) by Wu Feng and Mike Fisk of LANL.
520 : : * <http://public.lanl.gov/radiant/pubs.html#DRS>
521 : : *
522 : : * More detail on this code can be found at
523 : : * <http://staff.psc.edu/jheffner/>,
524 : : * though this reference is out of date. A new paper
525 : : * is pending.
526 : : */
527 : : static void tcp_rcv_rtt_update(struct tcp_sock *tp, u32 sample, int win_dep)
528 : : {
529 : 24 : u32 new_sample = tp->rcv_rtt_est.rtt_us;
530 : 24 : long m = sample;
531 : :
532 [ # # + + ]: 24 : if (new_sample != 0) {
533 : : /* If we sample in larger samples in the non-timestamp
534 : : * case, we could grossly overestimate the RTT especially
535 : : * with chatty applications or bulk transfer apps which
536 : : * are stalled on filesystem I/O.
537 : : *
538 : : * Also, since we are only going for a minimum in the
539 : : * non-timestamp case, we do not smooth things out
540 : : * else with timestamps disabled convergence takes too
541 : : * long.
542 : : */
543 : : if (!win_dep) {
544 : 0 : m -= (new_sample >> 3);
545 : 0 : new_sample += m;
546 : : } else {
547 : 16 : m <<= 3;
548 [ + + ]: 16 : if (m < new_sample)
549 : : new_sample = m;
550 : : }
551 : : } else {
552 : : /* No previous measure. */
553 : 8 : new_sample = m << 3;
554 : : }
555 : :
556 : 24 : tp->rcv_rtt_est.rtt_us = new_sample;
557 : : }
558 : :
559 : 6586 : static inline void tcp_rcv_rtt_measure(struct tcp_sock *tp)
560 : : {
561 : : u32 delta_us;
562 : :
563 [ + + ]: 6586 : if (tp->rcv_rtt_est.time == 0)
564 : : goto new_measure;
565 [ + + ]: 13028 : if (before(tp->rcv_nxt, tp->rcv_rtt_est.seq))
566 : 6586 : return;
567 : 24 : delta_us = tcp_stamp_us_delta(tp->tcp_mstamp, tp->rcv_rtt_est.time);
568 [ - + ]: 24 : if (!delta_us)
569 : : delta_us = 1;
570 : : tcp_rcv_rtt_update(tp, delta_us, 1);
571 : :
572 : : new_measure:
573 : 96 : tp->rcv_rtt_est.seq = tp->rcv_nxt + tp->rcv_wnd;
574 : 96 : tp->rcv_rtt_est.time = tp->tcp_mstamp;
575 : : }
576 : :
577 : 6590 : static inline void tcp_rcv_rtt_measure_ts(struct sock *sk,
578 : : const struct sk_buff *skb)
579 : : {
580 : : struct tcp_sock *tp = tcp_sk(sk);
581 : :
582 [ - + ]: 6590 : if (tp->rx_opt.rcv_tsecr == tp->rcv_rtt_last_tsecr)
583 : 6590 : return;
584 : 0 : tp->rcv_rtt_last_tsecr = tp->rx_opt.rcv_tsecr;
585 : :
586 [ # # ]: 0 : if (TCP_SKB_CB(skb)->end_seq -
587 : 0 : TCP_SKB_CB(skb)->seq >= inet_csk(sk)->icsk_ack.rcv_mss) {
588 : 0 : u32 delta = tcp_time_stamp(tp) - tp->rx_opt.rcv_tsecr;
589 : : u32 delta_us;
590 : :
591 [ # # ]: 0 : if (likely(delta < INT_MAX / (USEC_PER_SEC / TCP_TS_HZ))) {
592 [ # # ]: 0 : if (!delta)
593 : : delta = 1;
594 : 0 : delta_us = delta * (USEC_PER_SEC / TCP_TS_HZ);
595 : : tcp_rcv_rtt_update(tp, delta_us, 0);
596 : : }
597 : : }
598 : : }
599 : :
600 : : /*
601 : : * This function should be called every time data is copied to user space.
602 : : * It calculates the appropriate TCP receive buffer space.
603 : : */
604 : 3108 : void tcp_rcv_space_adjust(struct sock *sk)
605 : : {
606 : : struct tcp_sock *tp = tcp_sk(sk);
607 : : u32 copied;
608 : : int time;
609 : :
610 : 3108 : trace_tcp_rcv_space_adjust(sk);
611 : :
612 : 3108 : tcp_mstamp_refresh(tp);
613 : 3108 : time = tcp_stamp_us_delta(tp->tcp_mstamp, tp->rcvq_space.time);
614 [ + + + + ]: 3108 : if (time < (tp->rcv_rtt_est.rtt_us >> 3) || tp->rcv_rtt_est.rtt_us == 0)
615 : 3108 : return;
616 : :
617 : : /* Number of bytes copied to user in last RTT */
618 : 44 : copied = tp->copied_seq - tp->rcvq_space.seq;
619 [ + + ]: 44 : if (copied <= tp->rcvq_space.space)
620 : : goto new_measure;
621 : :
622 : : /* A bit of theory :
623 : : * copied = bytes received in previous RTT, our base window
624 : : * To cope with packet losses, we need a 2x factor
625 : : * To cope with slow start, and sender growing its cwin by 100 %
626 : : * every RTT, we need a 4x factor, because the ACK we are sending
627 : : * now is for the next RTT, not the current one :
628 : : * <prev RTT . ><current RTT .. ><next RTT .... >
629 : : */
630 : :
631 [ + - + - ]: 32 : if (sock_net(sk)->ipv4.sysctl_tcp_moderate_rcvbuf &&
632 : 16 : !(sk->sk_userlocks & SOCK_RCVBUF_LOCK)) {
633 : : int rcvmem, rcvbuf;
634 : : u64 rcvwin, grow;
635 : :
636 : : /* minimal window to cope with packet losses, assuming
637 : : * steady state. Add some cushion because of small variations.
638 : : */
639 : 16 : rcvwin = ((u64)copied << 1) + 16 * tp->advmss;
640 : :
641 : : /* Accommodate for sender rate increase (eg. slow start) */
642 : 16 : grow = rcvwin * (copied - tp->rcvq_space.space);
643 [ - + # # : 16 : do_div(grow, tp->rcvq_space.space);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # - +
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
+ + ]
644 : 16 : rcvwin += (grow << 1);
645 : :
646 : 16 : rcvmem = SKB_TRUESIZE(tp->advmss + MAX_TCP_HEADER);
647 [ + + ]: 128 : while (tcp_win_from_space(sk, rcvmem) < tp->advmss)
648 : 96 : rcvmem += 128;
649 : :
650 [ - + # # : 16 : do_div(rcvwin, tp->advmss);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# - + # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# + - ]
651 : 32 : rcvbuf = min_t(u64, rcvwin * rcvmem,
652 : : sock_net(sk)->ipv4.sysctl_tcp_rmem[2]);
653 [ + + ]: 16 : if (rcvbuf > sk->sk_rcvbuf) {
654 : : WRITE_ONCE(sk->sk_rcvbuf, rcvbuf);
655 : :
656 : : /* Make the window clamp follow along. */
657 : 10 : tp->window_clamp = tcp_win_from_space(sk, rcvbuf);
658 : : }
659 : : }
660 : 16 : tp->rcvq_space.space = copied;
661 : :
662 : : new_measure:
663 : 44 : tp->rcvq_space.seq = tp->copied_seq;
664 : 44 : tp->rcvq_space.time = tp->tcp_mstamp;
665 : : }
666 : :
667 : : /* There is something which you must keep in mind when you analyze the
668 : : * behavior of the tp->ato delayed ack timeout interval. When a
669 : : * connection starts up, we want to ack as quickly as possible. The
670 : : * problem is that "good" TCP's do slow start at the beginning of data
671 : : * transmission. The means that until we send the first few ACK's the
672 : : * sender will sit on his end and only queue most of his data, because
673 : : * he can only send snd_cwnd unacked packets at any given time. For
674 : : * each ACK we send, he increments snd_cwnd and transmits more of his
675 : : * queue. -DaveM
676 : : */
677 : 6586 : static void tcp_event_data_recv(struct sock *sk, struct sk_buff *skb)
678 : : {
679 : : struct tcp_sock *tp = tcp_sk(sk);
680 : : struct inet_connection_sock *icsk = inet_csk(sk);
681 : : u32 now;
682 : :
683 : : inet_csk_schedule_ack(sk);
684 : :
685 : 6586 : tcp_measure_rcv_mss(sk, skb);
686 : :
687 : 6586 : tcp_rcv_rtt_measure(tp);
688 : :
689 : 6586 : now = tcp_jiffies32;
690 : :
691 [ + + ]: 6586 : if (!icsk->icsk_ack.ato) {
692 : : /* The _first_ data packet received, initialize
693 : : * delayed ACK engine.
694 : : */
695 : : tcp_incr_quickack(sk, TCP_MAX_QUICKACKS);
696 : 72 : icsk->icsk_ack.ato = TCP_ATO_MIN;
697 : : } else {
698 : 6514 : int m = now - icsk->icsk_ack.lrcvtime;
699 : :
700 [ + + ]: 6514 : if (m <= TCP_ATO_MIN / 2) {
701 : : /* The fastest case is the first. */
702 : 6294 : icsk->icsk_ack.ato = (icsk->icsk_ack.ato >> 1) + TCP_ATO_MIN / 2;
703 [ + + ]: 220 : } else if (m < icsk->icsk_ack.ato) {
704 : 36 : icsk->icsk_ack.ato = (icsk->icsk_ack.ato >> 1) + m;
705 [ - + ]: 36 : if (icsk->icsk_ack.ato > icsk->icsk_rto)
706 : 0 : icsk->icsk_ack.ato = icsk->icsk_rto;
707 [ + + ]: 184 : } else if (m > icsk->icsk_rto) {
708 : : /* Too long gap. Apparently sender failed to
709 : : * restart window, so that we send ACKs quickly.
710 : : */
711 : : tcp_incr_quickack(sk, TCP_MAX_QUICKACKS);
712 : 72 : sk_mem_reclaim(sk);
713 : : }
714 : : }
715 : 6586 : icsk->icsk_ack.lrcvtime = now;
716 : :
717 : : tcp_ecn_check_ce(sk, skb);
718 : :
719 [ + + ]: 6586 : if (skb->len >= 128)
720 : 6482 : tcp_grow_window(sk, skb);
721 : 6586 : }
722 : :
723 : : /* Called to compute a smoothed rtt estimate. The data fed to this
724 : : * routine either comes from timestamps, or from segments that were
725 : : * known _not_ to have been retransmitted [see Karn/Partridge
726 : : * Proceedings SIGCOMM 87]. The algorithm is from the SIGCOMM 88
727 : : * piece by Van Jacobson.
728 : : * NOTE: the next three routines used to be one big routine.
729 : : * To save cycles in the RFC 1323 implementation it was better to break
730 : : * it up into three procedures. -- erics
731 : : */
732 : 496 : static void tcp_rtt_estimator(struct sock *sk, long mrtt_us)
733 : : {
734 : : struct tcp_sock *tp = tcp_sk(sk);
735 : : long m = mrtt_us; /* RTT */
736 : 496 : u32 srtt = tp->srtt_us;
737 : :
738 : : /* The following amusing code comes from Jacobson's
739 : : * article in SIGCOMM '88. Note that rtt and mdev
740 : : * are scaled versions of rtt and mean deviation.
741 : : * This is designed to be as fast as possible
742 : : * m stands for "measurement".
743 : : *
744 : : * On a 1990 paper the rto value is changed to:
745 : : * RTO = rtt + 4 * mdev
746 : : *
747 : : * Funny. This algorithm seems to be very broken.
748 : : * These formulae increase RTO, when it should be decreased, increase
749 : : * too slowly, when it should be increased quickly, decrease too quickly
750 : : * etc. I guess in BSD RTO takes ONE value, so that it is absolutely
751 : : * does not matter how to _calculate_ it. Seems, it was trap
752 : : * that VJ failed to avoid. 8)
753 : : */
754 [ + + ]: 496 : if (srtt != 0) {
755 : 424 : m -= (srtt >> 3); /* m is now error in rtt est */
756 : 424 : srtt += m; /* rtt = 7/8 rtt + 1/8 new */
757 [ + + ]: 424 : if (m < 0) {
758 : 330 : m = -m; /* m is now abs(error) */
759 : 330 : m -= (tp->mdev_us >> 2); /* similar update on mdev */
760 : : /* This is similar to one of Eifel findings.
761 : : * Eifel blocks mdev updates when rtt decreases.
762 : : * This solution is a bit different: we use finer gain
763 : : * for mdev in this case (alpha*beta).
764 : : * Like Eifel it also prevents growth of rto,
765 : : * but also it limits too fast rto decreases,
766 : : * happening in pure Eifel.
767 : : */
768 [ + + ]: 330 : if (m > 0)
769 : 192 : m >>= 3;
770 : : } else {
771 : 94 : m -= (tp->mdev_us >> 2); /* similar update on mdev */
772 : : }
773 : 424 : tp->mdev_us += m; /* mdev = 3/4 mdev + 1/4 new */
774 [ + + ]: 424 : if (tp->mdev_us > tp->mdev_max_us) {
775 : 92 : tp->mdev_max_us = tp->mdev_us;
776 [ + + ]: 92 : if (tp->mdev_max_us > tp->rttvar_us)
777 : 42 : tp->rttvar_us = tp->mdev_max_us;
778 : : }
779 [ + + ]: 848 : if (after(tp->snd_una, tp->rtt_seq)) {
780 [ + + ]: 364 : if (tp->mdev_max_us < tp->rttvar_us)
781 : 52 : tp->rttvar_us -= (tp->rttvar_us - tp->mdev_max_us) >> 2;
782 : 364 : tp->rtt_seq = tp->snd_nxt;
783 : 364 : tp->mdev_max_us = tcp_rto_min_us(sk);
784 : :
785 : 364 : tcp_bpf_rtt(sk);
786 : : }
787 : : } else {
788 : : /* no previous measure. */
789 : 72 : srtt = m << 3; /* take the measured time to be rtt */
790 : 72 : tp->mdev_us = m << 1; /* make sure rto = 3*rtt */
791 : 72 : tp->rttvar_us = max(tp->mdev_us, tcp_rto_min_us(sk));
792 : 72 : tp->mdev_max_us = tp->rttvar_us;
793 : 72 : tp->rtt_seq = tp->snd_nxt;
794 : :
795 : 72 : tcp_bpf_rtt(sk);
796 : : }
797 : 496 : tp->srtt_us = max(1U, srtt);
798 : 496 : }
799 : :
800 : 596 : static void tcp_update_pacing_rate(struct sock *sk)
801 : : {
802 : : const struct tcp_sock *tp = tcp_sk(sk);
803 : : u64 rate;
804 : :
805 : : /* set sk_pacing_rate to 200 % of current rate (mss * cwnd / srtt) */
806 : 596 : rate = (u64)tp->mss_cache * ((USEC_PER_SEC / 100) << 3);
807 : :
808 : : /* current rate is (cwnd * mss) / srtt
809 : : * In Slow Start [1], set sk_pacing_rate to 200 % the current rate.
810 : : * In Congestion Avoidance phase, set it to 120 % the current rate.
811 : : *
812 : : * [1] : Normal Slow Start condition is (tp->snd_cwnd < tp->snd_ssthresh)
813 : : * If snd_cwnd >= (tp->snd_ssthresh / 2), we are approaching
814 : : * end of slow start and should slow down.
815 : : */
816 [ + + ]: 596 : if (tp->snd_cwnd < tp->snd_ssthresh / 2)
817 : 546 : rate *= sock_net(sk)->ipv4.sysctl_tcp_pacing_ss_ratio;
818 : : else
819 : 50 : rate *= sock_net(sk)->ipv4.sysctl_tcp_pacing_ca_ratio;
820 : :
821 : 596 : rate *= max(tp->snd_cwnd, tp->packets_out);
822 : :
823 [ + - ]: 596 : if (likely(tp->srtt_us))
824 [ - + # # : 596 : do_div(rate, tp->srtt_us);
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # - +
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
# # # # #
- + ]
825 : :
826 : : /* WRITE_ONCE() is needed because sch_fq fetches sk_pacing_rate
827 : : * without any lock. We want to make sure compiler wont store
828 : : * intermediate values in this location.
829 : : */
830 : 596 : WRITE_ONCE(sk->sk_pacing_rate, min_t(u64, rate,
831 : : sk->sk_max_pacing_rate));
832 : 596 : }
833 : :
834 : : /* Calculate rto without backoff. This is the second half of Van Jacobson's
835 : : * routine referred to above.
836 : : */
837 : : static void tcp_set_rto(struct sock *sk)
838 : : {
839 : : const struct tcp_sock *tp = tcp_sk(sk);
840 : : /* Old crap is replaced with new one. 8)
841 : : *
842 : : * More seriously:
843 : : * 1. If rtt variance happened to be less 50msec, it is hallucination.
844 : : * It cannot be less due to utterly erratic ACK generation made
845 : : * at least by solaris and freebsd. "Erratic ACKs" has _nothing_
846 : : * to do with delayed acks, because at cwnd>2 true delack timeout
847 : : * is invisible. Actually, Linux-2.4 also generates erratic
848 : : * ACKs in some circumstances.
849 : : */
850 : 496 : inet_csk(sk)->icsk_rto = __tcp_set_rto(tp);
851 : :
852 : : /* 2. Fixups made earlier cannot be right.
853 : : * If we do not estimate RTO correctly without them,
854 : : * all the algo is pure shit and should be replaced
855 : : * with correct one. It is exactly, which we pretend to do.
856 : : */
857 : :
858 : : /* NOTE: clamping at TCP_RTO_MIN is not required, current algo
859 : : * guarantees that rto is higher.
860 : : */
861 : : tcp_bound_rto(sk);
862 : : }
863 : :
864 : 210 : __u32 tcp_init_cwnd(const struct tcp_sock *tp, const struct dst_entry *dst)
865 : : {
866 [ + - ]: 210 : __u32 cwnd = (dst ? dst_metric(dst, RTAX_INITCWND) : 0);
867 : :
868 [ + - ]: 210 : if (!cwnd)
869 : : cwnd = TCP_INIT_CWND;
870 : 210 : return min_t(__u32, cwnd, tp->snd_cwnd_clamp);
871 : : }
872 : :
873 : : /* Take a notice that peer is sending D-SACKs */
874 : : static void tcp_dsack_seen(struct tcp_sock *tp)
875 : : {
876 : 0 : tp->rx_opt.sack_ok |= TCP_DSACK_SEEN;
877 : 0 : tp->rack.dsack_seen = 1;
878 : 0 : tp->dsack_dups++;
879 : : }
880 : :
881 : : /* It's reordering when higher sequence was delivered (i.e. sacked) before
882 : : * some lower never-retransmitted sequence ("low_seq"). The maximum reordering
883 : : * distance is approximated in full-mss packet distance ("reordering").
884 : : */
885 : 0 : static void tcp_check_sack_reordering(struct sock *sk, const u32 low_seq,
886 : : const int ts)
887 : : {
888 : : struct tcp_sock *tp = tcp_sk(sk);
889 : 0 : const u32 mss = tp->mss_cache;
890 : : u32 fack, metric;
891 : :
892 : : fack = tcp_highest_sack_seq(tp);
893 [ # # ]: 0 : if (!before(low_seq, fack))
894 : 0 : return;
895 : :
896 : 0 : metric = fack - low_seq;
897 [ # # # # ]: 0 : if ((metric > tp->reordering * mss) && mss) {
898 : : #if FASTRETRANS_DEBUG > 1
899 : : pr_debug("Disorder%d %d %u f%u s%u rr%d\n",
900 : : tp->rx_opt.sack_ok, inet_csk(sk)->icsk_ca_state,
901 : : tp->reordering,
902 : : 0,
903 : : tp->sacked_out,
904 : : tp->undo_marker ? tp->undo_retrans : 0);
905 : : #endif
906 : 0 : tp->reordering = min_t(u32, (metric + mss - 1) / mss,
907 : : sock_net(sk)->ipv4.sysctl_tcp_max_reordering);
908 : : }
909 : :
910 : : /* This exciting event is worth to be remembered. 8) */
911 : 0 : tp->reord_seen++;
912 [ # # ]: 0 : NET_INC_STATS(sock_net(sk),
913 : : ts ? LINUX_MIB_TCPTSREORDER : LINUX_MIB_TCPSACKREORDER);
914 : : }
915 : :
916 : : /* This must be called before lost_out is incremented */
917 : : static void tcp_verify_retransmit_hint(struct tcp_sock *tp, struct sk_buff *skb)
918 : : {
919 [ + + - + : 12 : if ((!tp->retransmit_skb_hint && tp->retrans_out >= tp->lost_out) ||
+ - # # #
# # # ]
920 [ - + # # ]: 6 : (tp->retransmit_skb_hint &&
921 : 6 : before(TCP_SKB_CB(skb)->seq,
922 : : TCP_SKB_CB(tp->retransmit_skb_hint)->seq)))
923 : 6 : tp->retransmit_skb_hint = skb;
924 : : }
925 : :
926 : : /* Sum the number of packets on the wire we have marked as lost.
927 : : * There are two cases we care about here:
928 : : * a) Packet hasn't been marked lost (nor retransmitted),
929 : : * and this is the first loss.
930 : : * b) Packet has been marked both lost and retransmitted,
931 : : * and this means we think it was lost again.
932 : : */
933 : : static void tcp_sum_lost(struct tcp_sock *tp, struct sk_buff *skb)
934 : : {
935 : 12 : __u8 sacked = TCP_SKB_CB(skb)->sacked;
936 : :
937 [ - + # # : 12 : if (!(sacked & TCPCB_LOST) ||
# # # # ]
938 : 0 : ((sacked & TCPCB_LOST) && (sacked & TCPCB_SACKED_RETRANS)))
939 : 12 : tp->lost += tcp_skb_pcount(skb);
940 : : }
941 : :
942 : 0 : static void tcp_skb_mark_lost(struct tcp_sock *tp, struct sk_buff *skb)
943 : : {
944 [ # # ]: 0 : if (!(TCP_SKB_CB(skb)->sacked & (TCPCB_LOST|TCPCB_SACKED_ACKED))) {
945 : : tcp_verify_retransmit_hint(tp, skb);
946 : :
947 : 0 : tp->lost_out += tcp_skb_pcount(skb);
948 : : tcp_sum_lost(tp, skb);
949 : 0 : TCP_SKB_CB(skb)->sacked |= TCPCB_LOST;
950 : : }
951 : 0 : }
952 : :
953 : 12 : void tcp_skb_mark_lost_uncond_verify(struct tcp_sock *tp, struct sk_buff *skb)
954 : : {
955 : : tcp_verify_retransmit_hint(tp, skb);
956 : :
957 : : tcp_sum_lost(tp, skb);
958 [ + - ]: 12 : if (!(TCP_SKB_CB(skb)->sacked & (TCPCB_LOST|TCPCB_SACKED_ACKED))) {
959 : 12 : tp->lost_out += tcp_skb_pcount(skb);
960 : 12 : TCP_SKB_CB(skb)->sacked |= TCPCB_LOST;
961 : : }
962 : 12 : }
963 : :
964 : : /* This procedure tags the retransmission queue when SACKs arrive.
965 : : *
966 : : * We have three tag bits: SACKED(S), RETRANS(R) and LOST(L).
967 : : * Packets in queue with these bits set are counted in variables
968 : : * sacked_out, retrans_out and lost_out, correspondingly.
969 : : *
970 : : * Valid combinations are:
971 : : * Tag InFlight Description
972 : : * 0 1 - orig segment is in flight.
973 : : * S 0 - nothing flies, orig reached receiver.
974 : : * L 0 - nothing flies, orig lost by net.
975 : : * R 2 - both orig and retransmit are in flight.
976 : : * L|R 1 - orig is lost, retransmit is in flight.
977 : : * S|R 1 - orig reached receiver, retrans is still in flight.
978 : : * (L|S|R is logically valid, it could occur when L|R is sacked,
979 : : * but it is equivalent to plain S and code short-curcuits it to S.
980 : : * L|S is logically invalid, it would mean -1 packet in flight 8))
981 : : *
982 : : * These 6 states form finite state machine, controlled by the following events:
983 : : * 1. New ACK (+SACK) arrives. (tcp_sacktag_write_queue())
984 : : * 2. Retransmission. (tcp_retransmit_skb(), tcp_xmit_retransmit_queue())
985 : : * 3. Loss detection event of two flavors:
986 : : * A. Scoreboard estimator decided the packet is lost.
987 : : * A'. Reno "three dupacks" marks head of queue lost.
988 : : * B. SACK arrives sacking SND.NXT at the moment, when the
989 : : * segment was retransmitted.
990 : : * 4. D-SACK added new rule: D-SACK changes any tag to S.
991 : : *
992 : : * It is pleasant to note, that state diagram turns out to be commutative,
993 : : * so that we are allowed not to be bothered by order of our actions,
994 : : * when multiple events arrive simultaneously. (see the function below).
995 : : *
996 : : * Reordering detection.
997 : : * --------------------
998 : : * Reordering metric is maximal distance, which a packet can be displaced
999 : : * in packet stream. With SACKs we can estimate it:
1000 : : *
1001 : : * 1. SACK fills old hole and the corresponding segment was not
1002 : : * ever retransmitted -> reordering. Alas, we cannot use it
1003 : : * when segment was retransmitted.
1004 : : * 2. The last flaw is solved with D-SACK. D-SACK arrives
1005 : : * for retransmitted and already SACKed segment -> reordering..
1006 : : * Both of these heuristics are not used in Loss state, when we cannot
1007 : : * account for retransmits accurately.
1008 : : *
1009 : : * SACK block validation.
1010 : : * ----------------------
1011 : : *
1012 : : * SACK block range validation checks that the received SACK block fits to
1013 : : * the expected sequence limits, i.e., it is between SND.UNA and SND.NXT.
1014 : : * Note that SND.UNA is not included to the range though being valid because
1015 : : * it means that the receiver is rather inconsistent with itself reporting
1016 : : * SACK reneging when it should advance SND.UNA. Such SACK block this is
1017 : : * perfectly valid, however, in light of RFC2018 which explicitly states
1018 : : * that "SACK block MUST reflect the newest segment. Even if the newest
1019 : : * segment is going to be discarded ...", not that it looks very clever
1020 : : * in case of head skb. Due to potentional receiver driven attacks, we
1021 : : * choose to avoid immediate execution of a walk in write queue due to
1022 : : * reneging and defer head skb's loss recovery to standard loss recovery
1023 : : * procedure that will eventually trigger (nothing forbids us doing this).
1024 : : *
1025 : : * Implements also blockage to start_seq wrap-around. Problem lies in the
1026 : : * fact that though start_seq (s) is before end_seq (i.e., not reversed),
1027 : : * there's no guarantee that it will be before snd_nxt (n). The problem
1028 : : * happens when start_seq resides between end_seq wrap (e_w) and snd_nxt
1029 : : * wrap (s_w):
1030 : : *
1031 : : * <- outs wnd -> <- wrapzone ->
1032 : : * u e n u_w e_w s n_w
1033 : : * | | | | | | |
1034 : : * |<------------+------+----- TCP seqno space --------------+---------->|
1035 : : * ...-- <2^31 ->| |<--------...
1036 : : * ...---- >2^31 ------>| |<--------...
1037 : : *
1038 : : * Current code wouldn't be vulnerable but it's better still to discard such
1039 : : * crazy SACK blocks. Doing this check for start_seq alone closes somewhat
1040 : : * similar case (end_seq after snd_nxt wrap) as earlier reversed check in
1041 : : * snd_nxt wrap -> snd_una region will then become "well defined", i.e.,
1042 : : * equal to the ideal case (infinite seqno space without wrap caused issues).
1043 : : *
1044 : : * With D-SACK the lower bound is extended to cover sequence space below
1045 : : * SND.UNA down to undo_marker, which is the last point of interest. Yet
1046 : : * again, D-SACK block must not to go across snd_una (for the same reason as
1047 : : * for the normal SACK blocks, explained above). But there all simplicity
1048 : : * ends, TCP might receive valid D-SACKs below that. As long as they reside
1049 : : * fully below undo_marker they do not affect behavior in anyway and can
1050 : : * therefore be safely ignored. In rare cases (which are more or less
1051 : : * theoretical ones), the D-SACK will nicely cross that boundary due to skb
1052 : : * fragmentation and packet reordering past skb's retransmission. To consider
1053 : : * them correctly, the acceptable range must be extended even more though
1054 : : * the exact amount is rather hard to quantify. However, tp->max_window can
1055 : : * be used as an exaggerated estimate.
1056 : : */
1057 : 0 : static bool tcp_is_sackblock_valid(struct tcp_sock *tp, bool is_dsack,
1058 : : u32 start_seq, u32 end_seq)
1059 : : {
1060 : : /* Too far in future, or reversed (interpretation is ambiguous) */
1061 [ # # # # ]: 0 : if (after(end_seq, tp->snd_nxt) || !before(start_seq, end_seq))
1062 : : return false;
1063 : :
1064 : : /* Nasty start_seq wrap-around check (see comments above) */
1065 [ # # ]: 0 : if (!before(start_seq, tp->snd_nxt))
1066 : : return false;
1067 : :
1068 : : /* In outstanding window? ...This is valid exit for D-SACKs too.
1069 : : * start_seq == snd_una is non-sensical (see comments above)
1070 : : */
1071 [ # # ]: 0 : if (after(start_seq, tp->snd_una))
1072 : : return true;
1073 : :
1074 [ # # # # ]: 0 : if (!is_dsack || !tp->undo_marker)
1075 : : return false;
1076 : :
1077 : : /* ...Then it's D-SACK, and must reside below snd_una completely */
1078 [ # # ]: 0 : if (after(end_seq, tp->snd_una))
1079 : : return false;
1080 : :
1081 [ # # ]: 0 : if (!before(start_seq, tp->undo_marker))
1082 : : return true;
1083 : :
1084 : : /* Too old */
1085 [ # # ]: 0 : if (!after(end_seq, tp->undo_marker))
1086 : : return false;
1087 : :
1088 : : /* Undo_marker boundary crossing (overestimates a lot). Known already:
1089 : : * start_seq < undo_marker and end_seq >= undo_marker.
1090 : : */
1091 : 0 : return !before(start_seq, end_seq - tp->max_window);
1092 : : }
1093 : :
1094 : 0 : static bool tcp_check_dsack(struct sock *sk, const struct sk_buff *ack_skb,
1095 : : struct tcp_sack_block_wire *sp, int num_sacks,
1096 : : u32 prior_snd_una)
1097 : : {
1098 : : struct tcp_sock *tp = tcp_sk(sk);
1099 : : u32 start_seq_0 = get_unaligned_be32(&sp[0].start_seq);
1100 : : u32 end_seq_0 = get_unaligned_be32(&sp[0].end_seq);
1101 : : bool dup_sack = false;
1102 : :
1103 [ # # ]: 0 : if (before(start_seq_0, TCP_SKB_CB(ack_skb)->ack_seq)) {
1104 : : dup_sack = true;
1105 : : tcp_dsack_seen(tp);
1106 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDSACKRECV);
1107 [ # # ]: 0 : } else if (num_sacks > 1) {
1108 : : u32 end_seq_1 = get_unaligned_be32(&sp[1].end_seq);
1109 : : u32 start_seq_1 = get_unaligned_be32(&sp[1].start_seq);
1110 : :
1111 [ # # # # ]: 0 : if (!after(end_seq_0, end_seq_1) &&
1112 : : !before(start_seq_0, start_seq_1)) {
1113 : : dup_sack = true;
1114 : : tcp_dsack_seen(tp);
1115 : 0 : NET_INC_STATS(sock_net(sk),
1116 : : LINUX_MIB_TCPDSACKOFORECV);
1117 : : }
1118 : : }
1119 : :
1120 : : /* D-SACK for already forgotten data... Do dumb counting. */
1121 [ # # # # : 0 : if (dup_sack && tp->undo_marker && tp->undo_retrans > 0 &&
# # # # ]
1122 [ # # ]: 0 : !after(end_seq_0, prior_snd_una) &&
1123 : : after(end_seq_0, tp->undo_marker))
1124 : 0 : tp->undo_retrans--;
1125 : :
1126 : 0 : return dup_sack;
1127 : : }
1128 : :
1129 : : struct tcp_sacktag_state {
1130 : : u32 reord;
1131 : : /* Timestamps for earliest and latest never-retransmitted segment
1132 : : * that was SACKed. RTO needs the earliest RTT to stay conservative,
1133 : : * but congestion control should still get an accurate delay signal.
1134 : : */
1135 : : u64 first_sackt;
1136 : : u64 last_sackt;
1137 : : struct rate_sample *rate;
1138 : : int flag;
1139 : : unsigned int mss_now;
1140 : : };
1141 : :
1142 : : /* Check if skb is fully within the SACK block. In presence of GSO skbs,
1143 : : * the incoming SACK may not exactly match but we can find smaller MSS
1144 : : * aligned portion of it that matches. Therefore we might need to fragment
1145 : : * which may fail and creates some hassle (caller must handle error case
1146 : : * returns).
1147 : : *
1148 : : * FIXME: this could be merged to shift decision code
1149 : : */
1150 : 0 : static int tcp_match_skb_to_sack(struct sock *sk, struct sk_buff *skb,
1151 : : u32 start_seq, u32 end_seq)
1152 : : {
1153 : : int err;
1154 : : bool in_sack;
1155 : : unsigned int pkt_len;
1156 : : unsigned int mss;
1157 : :
1158 [ # # # # ]: 0 : in_sack = !after(start_seq, TCP_SKB_CB(skb)->seq) &&
1159 : 0 : !before(end_seq, TCP_SKB_CB(skb)->end_seq);
1160 : :
1161 [ # # # # : 0 : if (tcp_skb_pcount(skb) > 1 && !in_sack &&
# # ]
1162 : 0 : after(TCP_SKB_CB(skb)->end_seq, start_seq)) {
1163 : 0 : mss = tcp_skb_mss(skb);
1164 : 0 : in_sack = !after(start_seq, TCP_SKB_CB(skb)->seq);
1165 : :
1166 [ # # ]: 0 : if (!in_sack) {
1167 : 0 : pkt_len = start_seq - TCP_SKB_CB(skb)->seq;
1168 [ # # ]: 0 : if (pkt_len < mss)
1169 : : pkt_len = mss;
1170 : : } else {
1171 : 0 : pkt_len = end_seq - TCP_SKB_CB(skb)->seq;
1172 [ # # ]: 0 : if (pkt_len < mss)
1173 : : return -EINVAL;
1174 : : }
1175 : :
1176 : : /* Round if necessary so that SACKs cover only full MSSes
1177 : : * and/or the remaining small portion (if present)
1178 : : */
1179 [ # # ]: 0 : if (pkt_len > mss) {
1180 : 0 : unsigned int new_len = (pkt_len / mss) * mss;
1181 [ # # ]: 0 : if (!in_sack && new_len < pkt_len)
1182 : 0 : new_len += mss;
1183 : : pkt_len = new_len;
1184 : : }
1185 : :
1186 [ # # # # ]: 0 : if (pkt_len >= skb->len && !in_sack)
1187 : : return 0;
1188 : :
1189 : 0 : err = tcp_fragment(sk, TCP_FRAG_IN_RTX_QUEUE, skb,
1190 : : pkt_len, mss, GFP_ATOMIC);
1191 [ # # ]: 0 : if (err < 0)
1192 : : return err;
1193 : : }
1194 : :
1195 : 0 : return in_sack;
1196 : : }
1197 : :
1198 : : /* Mark the given newly-SACKed range as such, adjusting counters and hints. */
1199 : 0 : static u8 tcp_sacktag_one(struct sock *sk,
1200 : : struct tcp_sacktag_state *state, u8 sacked,
1201 : : u32 start_seq, u32 end_seq,
1202 : : int dup_sack, int pcount,
1203 : : u64 xmit_time)
1204 : : {
1205 : : struct tcp_sock *tp = tcp_sk(sk);
1206 : :
1207 : : /* Account D-SACK for retransmitted packet. */
1208 [ # # # # ]: 0 : if (dup_sack && (sacked & TCPCB_RETRANS)) {
1209 [ # # # # : 0 : if (tp->undo_marker && tp->undo_retrans > 0 &&
# # ]
1210 : : after(end_seq, tp->undo_marker))
1211 : 0 : tp->undo_retrans--;
1212 [ # # # # ]: 0 : if ((sacked & TCPCB_SACKED_ACKED) &&
1213 : 0 : before(start_seq, state->reord))
1214 : 0 : state->reord = start_seq;
1215 : : }
1216 : :
1217 : : /* Nothing to do; acked frame is about to be dropped (was ACKed). */
1218 [ # # ]: 0 : if (!after(end_seq, tp->snd_una))
1219 : : return sacked;
1220 : :
1221 [ # # ]: 0 : if (!(sacked & TCPCB_SACKED_ACKED)) {
1222 : 0 : tcp_rack_advance(tp, sacked, end_seq, xmit_time);
1223 : :
1224 [ # # ]: 0 : if (sacked & TCPCB_SACKED_RETRANS) {
1225 : : /* If the segment is not tagged as lost,
1226 : : * we do not clear RETRANS, believing
1227 : : * that retransmission is still in flight.
1228 : : */
1229 [ # # ]: 0 : if (sacked & TCPCB_LOST) {
1230 : 0 : sacked &= ~(TCPCB_LOST|TCPCB_SACKED_RETRANS);
1231 : 0 : tp->lost_out -= pcount;
1232 : 0 : tp->retrans_out -= pcount;
1233 : : }
1234 : : } else {
1235 [ # # ]: 0 : if (!(sacked & TCPCB_RETRANS)) {
1236 : : /* New sack for not retransmitted frame,
1237 : : * which was in hole. It is reordering.
1238 : : */
1239 [ # # ]: 0 : if (before(start_seq,
1240 [ # # ]: 0 : tcp_highest_sack_seq(tp)) &&
1241 : 0 : before(start_seq, state->reord))
1242 : 0 : state->reord = start_seq;
1243 : :
1244 [ # # ]: 0 : if (!after(end_seq, tp->high_seq))
1245 : 0 : state->flag |= FLAG_ORIG_SACK_ACKED;
1246 [ # # ]: 0 : if (state->first_sackt == 0)
1247 : 0 : state->first_sackt = xmit_time;
1248 : 0 : state->last_sackt = xmit_time;
1249 : : }
1250 : :
1251 [ # # ]: 0 : if (sacked & TCPCB_LOST) {
1252 : 0 : sacked &= ~TCPCB_LOST;
1253 : 0 : tp->lost_out -= pcount;
1254 : : }
1255 : : }
1256 : :
1257 : 0 : sacked |= TCPCB_SACKED_ACKED;
1258 : 0 : state->flag |= FLAG_DATA_SACKED;
1259 : 0 : tp->sacked_out += pcount;
1260 : 0 : tp->delivered += pcount; /* Out-of-order packets delivered */
1261 : :
1262 : : /* Lost marker hint past SACKed? Tweak RFC3517 cnt */
1263 [ # # # # ]: 0 : if (tp->lost_skb_hint &&
1264 : 0 : before(start_seq, TCP_SKB_CB(tp->lost_skb_hint)->seq))
1265 : 0 : tp->lost_cnt_hint += pcount;
1266 : : }
1267 : :
1268 : : /* D-SACK. We can detect redundant retransmission in S|R and plain R
1269 : : * frames and clear it. undo_retrans is decreased above, L|R frames
1270 : : * are accounted above as well.
1271 : : */
1272 [ # # # # ]: 0 : if (dup_sack && (sacked & TCPCB_SACKED_RETRANS)) {
1273 : 0 : sacked &= ~TCPCB_SACKED_RETRANS;
1274 : 0 : tp->retrans_out -= pcount;
1275 : : }
1276 : :
1277 : 0 : return sacked;
1278 : : }
1279 : :
1280 : : /* Shift newly-SACKed bytes from this skb to the immediately previous
1281 : : * already-SACKed sk_buff. Mark the newly-SACKed bytes as such.
1282 : : */
1283 : 0 : static bool tcp_shifted_skb(struct sock *sk, struct sk_buff *prev,
1284 : : struct sk_buff *skb,
1285 : : struct tcp_sacktag_state *state,
1286 : : unsigned int pcount, int shifted, int mss,
1287 : : bool dup_sack)
1288 : : {
1289 : : struct tcp_sock *tp = tcp_sk(sk);
1290 : 0 : u32 start_seq = TCP_SKB_CB(skb)->seq; /* start of newly-SACKed */
1291 : 0 : u32 end_seq = start_seq + shifted; /* end of newly-SACKed */
1292 : :
1293 [ # # ]: 0 : BUG_ON(!pcount);
1294 : :
1295 : : /* Adjust counters and hints for the newly sacked sequence
1296 : : * range but discard the return value since prev is already
1297 : : * marked. We must tag the range first because the seq
1298 : : * advancement below implicitly advances
1299 : : * tcp_highest_sack_seq() when skb is highest_sack.
1300 : : */
1301 : 0 : tcp_sacktag_one(sk, state, TCP_SKB_CB(skb)->sacked,
1302 : : start_seq, end_seq, dup_sack, pcount,
1303 : : tcp_skb_timestamp_us(skb));
1304 : 0 : tcp_rate_skb_delivered(sk, skb, state->rate);
1305 : :
1306 [ # # ]: 0 : if (skb == tp->lost_skb_hint)
1307 : 0 : tp->lost_cnt_hint += pcount;
1308 : :
1309 : 0 : TCP_SKB_CB(prev)->end_seq += shifted;
1310 : 0 : TCP_SKB_CB(skb)->seq += shifted;
1311 : :
1312 : : tcp_skb_pcount_add(prev, pcount);
1313 [ # # # # ]: 0 : WARN_ON_ONCE(tcp_skb_pcount(skb) < pcount);
1314 : 0 : tcp_skb_pcount_add(skb, -pcount);
1315 : :
1316 : : /* When we're adding to gso_segs == 1, gso_size will be zero,
1317 : : * in theory this shouldn't be necessary but as long as DSACK
1318 : : * code can come after this skb later on it's better to keep
1319 : : * setting gso_size to something.
1320 : : */
1321 [ # # ]: 0 : if (!TCP_SKB_CB(prev)->tcp_gso_size)
1322 : 0 : TCP_SKB_CB(prev)->tcp_gso_size = mss;
1323 : :
1324 : : /* CHECKME: To clear or not to clear? Mimics normal skb currently */
1325 [ # # ]: 0 : if (tcp_skb_pcount(skb) <= 1)
1326 : 0 : TCP_SKB_CB(skb)->tcp_gso_size = 0;
1327 : :
1328 : : /* Difference in this won't matter, both ACKed by the same cumul. ACK */
1329 : 0 : TCP_SKB_CB(prev)->sacked |= (TCP_SKB_CB(skb)->sacked & TCPCB_EVER_RETRANS);
1330 : :
1331 [ # # ]: 0 : if (skb->len > 0) {
1332 [ # # ]: 0 : BUG_ON(!tcp_skb_pcount(skb));
1333 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_SACKSHIFTED);
1334 : 0 : return false;
1335 : : }
1336 : :
1337 : : /* Whole SKB was eaten :-) */
1338 : :
1339 [ # # ]: 0 : if (skb == tp->retransmit_skb_hint)
1340 : 0 : tp->retransmit_skb_hint = prev;
1341 [ # # ]: 0 : if (skb == tp->lost_skb_hint) {
1342 : 0 : tp->lost_skb_hint = prev;
1343 : 0 : tp->lost_cnt_hint -= tcp_skb_pcount(prev);
1344 : : }
1345 : :
1346 : 0 : TCP_SKB_CB(prev)->tcp_flags |= TCP_SKB_CB(skb)->tcp_flags;
1347 : 0 : TCP_SKB_CB(prev)->eor = TCP_SKB_CB(skb)->eor;
1348 [ # # ]: 0 : if (TCP_SKB_CB(skb)->tcp_flags & TCPHDR_FIN)
1349 : 0 : TCP_SKB_CB(prev)->end_seq++;
1350 : :
1351 [ # # ]: 0 : if (skb == tcp_highest_sack(sk))
1352 : : tcp_advance_highest_sack(sk, skb);
1353 : :
1354 : 0 : tcp_skb_collapse_tstamp(prev, skb);
1355 [ # # ]: 0 : if (unlikely(TCP_SKB_CB(prev)->tx.delivered_mstamp))
1356 : 0 : TCP_SKB_CB(prev)->tx.delivered_mstamp = 0;
1357 : :
1358 : 0 : tcp_rtx_queue_unlink_and_free(skb, sk);
1359 : :
1360 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_SACKMERGED);
1361 : :
1362 : 0 : return true;
1363 : : }
1364 : :
1365 : : /* I wish gso_size would have a bit more sane initialization than
1366 : : * something-or-zero which complicates things
1367 : : */
1368 : : static int tcp_skb_seglen(const struct sk_buff *skb)
1369 : : {
1370 [ # # # # : 0 : return tcp_skb_pcount(skb) == 1 ? skb->len : tcp_skb_mss(skb);
# # # # #
# ]
1371 : : }
1372 : :
1373 : : /* Shifting pages past head area doesn't work */
1374 : : static int skb_can_shift(const struct sk_buff *skb)
1375 : : {
1376 [ # # # # : 0 : return !skb_headlen(skb) && skb_is_nonlinear(skb);
# # # # ]
1377 : : }
1378 : :
1379 : 6 : int tcp_skb_shift(struct sk_buff *to, struct sk_buff *from,
1380 : : int pcount, int shiftlen)
1381 : : {
1382 : : /* TCP min gso_size is 8 bytes (TCP_MIN_GSO_SIZE)
1383 : : * Since TCP_SKB_CB(skb)->tcp_gso_segs is 16 bits, we need
1384 : : * to make sure not storing more than 65535 * 8 bytes per skb,
1385 : : * even if current MSS is bigger.
1386 : : */
1387 [ + - ]: 6 : if (unlikely(to->len + shiftlen >= 65535 * TCP_MIN_GSO_SIZE))
1388 : : return 0;
1389 [ + - ]: 6 : if (unlikely(tcp_skb_pcount(to) + pcount > 65535))
1390 : : return 0;
1391 : 6 : return skb_shift(to, from, shiftlen);
1392 : : }
1393 : :
1394 : : /* Try collapsing SACK blocks spanning across multiple skbs to a single
1395 : : * skb.
1396 : : */
1397 : 0 : static struct sk_buff *tcp_shift_skb_data(struct sock *sk, struct sk_buff *skb,
1398 : : struct tcp_sacktag_state *state,
1399 : : u32 start_seq, u32 end_seq,
1400 : : bool dup_sack)
1401 : : {
1402 : : struct tcp_sock *tp = tcp_sk(sk);
1403 : : struct sk_buff *prev;
1404 : : int mss;
1405 : : int pcount = 0;
1406 : : int len;
1407 : : int in_sack;
1408 : :
1409 : : /* Normally R but no L won't result in plain S */
1410 [ # # # # ]: 0 : if (!dup_sack &&
1411 : 0 : (TCP_SKB_CB(skb)->sacked & (TCPCB_LOST|TCPCB_SACKED_RETRANS)) == TCPCB_SACKED_RETRANS)
1412 : : goto fallback;
1413 [ # # ]: 0 : if (!skb_can_shift(skb))
1414 : : goto fallback;
1415 : : /* This frame is about to be dropped (was ACKed). */
1416 [ # # ]: 0 : if (!after(TCP_SKB_CB(skb)->end_seq, tp->snd_una))
1417 : : goto fallback;
1418 : :
1419 : : /* Can only happen with delayed DSACK + discard craziness */
1420 [ # # ]: 0 : prev = skb_rb_prev(skb);
1421 [ # # ]: 0 : if (!prev)
1422 : : goto fallback;
1423 : :
1424 [ # # ]: 0 : if ((TCP_SKB_CB(prev)->sacked & TCPCB_TAGBITS) != TCPCB_SACKED_ACKED)
1425 : : goto fallback;
1426 : :
1427 [ # # ]: 0 : if (!tcp_skb_can_collapse_to(prev))
1428 : : goto fallback;
1429 : :
1430 [ # # # # ]: 0 : in_sack = !after(start_seq, TCP_SKB_CB(skb)->seq) &&
1431 : 0 : !before(end_seq, TCP_SKB_CB(skb)->end_seq);
1432 : :
1433 [ # # ]: 0 : if (in_sack) {
1434 : 0 : len = skb->len;
1435 : : pcount = tcp_skb_pcount(skb);
1436 : : mss = tcp_skb_seglen(skb);
1437 : :
1438 : : /* TODO: Fix DSACKs to not fragment already SACKed and we can
1439 : : * drop this restriction as unnecessary
1440 : : */
1441 [ # # ]: 0 : if (mss != tcp_skb_seglen(prev))
1442 : : goto fallback;
1443 : : } else {
1444 [ # # ]: 0 : if (!after(TCP_SKB_CB(skb)->end_seq, start_seq))
1445 : : goto noop;
1446 : : /* CHECKME: This is non-MSS split case only?, this will
1447 : : * cause skipped skbs due to advancing loop btw, original
1448 : : * has that feature too
1449 : : */
1450 [ # # ]: 0 : if (tcp_skb_pcount(skb) <= 1)
1451 : : goto noop;
1452 : :
1453 : : in_sack = !after(start_seq, TCP_SKB_CB(skb)->seq);
1454 [ # # ]: 0 : if (!in_sack) {
1455 : : /* TODO: head merge to next could be attempted here
1456 : : * if (!after(TCP_SKB_CB(skb)->end_seq, end_seq)),
1457 : : * though it might not be worth of the additional hassle
1458 : : *
1459 : : * ...we can probably just fallback to what was done
1460 : : * previously. We could try merging non-SACKed ones
1461 : : * as well but it probably isn't going to buy off
1462 : : * because later SACKs might again split them, and
1463 : : * it would make skb timestamp tracking considerably
1464 : : * harder problem.
1465 : : */
1466 : : goto fallback;
1467 : : }
1468 : :
1469 : 0 : len = end_seq - TCP_SKB_CB(skb)->seq;
1470 [ # # ]: 0 : BUG_ON(len < 0);
1471 [ # # ]: 0 : BUG_ON(len > skb->len);
1472 : :
1473 : : /* MSS boundaries should be honoured or else pcount will
1474 : : * severely break even though it makes things bit trickier.
1475 : : * Optimize common case to avoid most of the divides
1476 : : */
1477 : : mss = tcp_skb_mss(skb);
1478 : :
1479 : : /* TODO: Fix DSACKs to not fragment already SACKed and we can
1480 : : * drop this restriction as unnecessary
1481 : : */
1482 [ # # ]: 0 : if (mss != tcp_skb_seglen(prev))
1483 : : goto fallback;
1484 : :
1485 [ # # ]: 0 : if (len == mss) {
1486 : : pcount = 1;
1487 [ # # ]: 0 : } else if (len < mss) {
1488 : : goto noop;
1489 : : } else {
1490 : 0 : pcount = len / mss;
1491 : 0 : len = pcount * mss;
1492 : : }
1493 : : }
1494 : :
1495 : : /* tcp_sacktag_one() won't SACK-tag ranges below snd_una */
1496 [ # # ]: 0 : if (!after(TCP_SKB_CB(skb)->seq + len, tp->snd_una))
1497 : : goto fallback;
1498 : :
1499 [ # # ]: 0 : if (!tcp_skb_shift(prev, skb, pcount, len))
1500 : : goto fallback;
1501 [ # # ]: 0 : if (!tcp_shifted_skb(sk, prev, skb, state, pcount, len, mss, dup_sack))
1502 : : goto out;
1503 : :
1504 : : /* Hole filled allows collapsing with the next as well, this is very
1505 : : * useful when hole on every nth skb pattern happens
1506 : : */
1507 [ # # ]: 0 : skb = skb_rb_next(prev);
1508 [ # # ]: 0 : if (!skb)
1509 : : goto out;
1510 : :
1511 [ # # # # ]: 0 : if (!skb_can_shift(skb) ||
1512 [ # # ]: 0 : ((TCP_SKB_CB(skb)->sacked & TCPCB_TAGBITS) != TCPCB_SACKED_ACKED) ||
1513 : : (mss != tcp_skb_seglen(skb)))
1514 : : goto out;
1515 : :
1516 : 0 : len = skb->len;
1517 : : pcount = tcp_skb_pcount(skb);
1518 [ # # ]: 0 : if (tcp_skb_shift(prev, skb, pcount, len))
1519 : 0 : tcp_shifted_skb(sk, prev, skb, state, pcount,
1520 : : len, mss, 0);
1521 : :
1522 : : out:
1523 : 0 : return prev;
1524 : :
1525 : : noop:
1526 : : return skb;
1527 : :
1528 : : fallback:
1529 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_SACKSHIFTFALLBACK);
1530 : 0 : return NULL;
1531 : : }
1532 : :
1533 : 0 : static struct sk_buff *tcp_sacktag_walk(struct sk_buff *skb, struct sock *sk,
1534 : : struct tcp_sack_block *next_dup,
1535 : : struct tcp_sacktag_state *state,
1536 : : u32 start_seq, u32 end_seq,
1537 : : bool dup_sack_in)
1538 : : {
1539 : : struct tcp_sock *tp = tcp_sk(sk);
1540 : : struct sk_buff *tmp;
1541 : :
1542 [ # # # # ]: 0 : skb_rbtree_walk_from(skb) {
1543 : : int in_sack = 0;
1544 : : bool dup_sack = dup_sack_in;
1545 : :
1546 : : /* queue is in-order => we can short-circuit the walk early */
1547 [ # # ]: 0 : if (!before(TCP_SKB_CB(skb)->seq, end_seq))
1548 : : break;
1549 : :
1550 [ # # # # ]: 0 : if (next_dup &&
1551 : 0 : before(TCP_SKB_CB(skb)->seq, next_dup->end_seq)) {
1552 : 0 : in_sack = tcp_match_skb_to_sack(sk, skb,
1553 : : next_dup->start_seq,
1554 : : next_dup->end_seq);
1555 [ # # ]: 0 : if (in_sack > 0)
1556 : : dup_sack = true;
1557 : : }
1558 : :
1559 : : /* skb reference here is a bit tricky to get right, since
1560 : : * shifting can eat and free both this skb and the next,
1561 : : * so not even _safe variant of the loop is enough.
1562 : : */
1563 [ # # ]: 0 : if (in_sack <= 0) {
1564 : 0 : tmp = tcp_shift_skb_data(sk, skb, state,
1565 : : start_seq, end_seq, dup_sack);
1566 [ # # ]: 0 : if (tmp) {
1567 [ # # ]: 0 : if (tmp != skb) {
1568 : : skb = tmp;
1569 : 0 : continue;
1570 : : }
1571 : :
1572 : : in_sack = 0;
1573 : : } else {
1574 : 0 : in_sack = tcp_match_skb_to_sack(sk, skb,
1575 : : start_seq,
1576 : : end_seq);
1577 : : }
1578 : : }
1579 : :
1580 [ # # ]: 0 : if (unlikely(in_sack < 0))
1581 : : break;
1582 : :
1583 [ # # ]: 0 : if (in_sack) {
1584 : 0 : TCP_SKB_CB(skb)->sacked =
1585 : 0 : tcp_sacktag_one(sk,
1586 : : state,
1587 : : TCP_SKB_CB(skb)->sacked,
1588 : : TCP_SKB_CB(skb)->seq,
1589 : : TCP_SKB_CB(skb)->end_seq,
1590 : : dup_sack,
1591 : : tcp_skb_pcount(skb),
1592 : : tcp_skb_timestamp_us(skb));
1593 : 0 : tcp_rate_skb_delivered(sk, skb, state->rate);
1594 [ # # ]: 0 : if (TCP_SKB_CB(skb)->sacked & TCPCB_SACKED_ACKED)
1595 : 0 : list_del_init(&skb->tcp_tsorted_anchor);
1596 : :
1597 [ # # ]: 0 : if (!before(TCP_SKB_CB(skb)->seq,
1598 : : tcp_highest_sack_seq(tp)))
1599 : : tcp_advance_highest_sack(sk, skb);
1600 : : }
1601 : : }
1602 : 0 : return skb;
1603 : : }
1604 : :
1605 : : static struct sk_buff *tcp_sacktag_bsearch(struct sock *sk, u32 seq)
1606 : : {
1607 : 0 : struct rb_node *parent, **p = &sk->tcp_rtx_queue.rb_node;
1608 : : struct sk_buff *skb;
1609 : :
1610 [ # # ]: 0 : while (*p) {
1611 : : parent = *p;
1612 [ # # ]: 0 : skb = rb_to_skb(parent);
1613 [ # # ]: 0 : if (before(seq, TCP_SKB_CB(skb)->seq)) {
1614 : 0 : p = &parent->rb_left;
1615 : 0 : continue;
1616 : : }
1617 [ # # ]: 0 : if (!before(seq, TCP_SKB_CB(skb)->end_seq)) {
1618 : 0 : p = &parent->rb_right;
1619 : 0 : continue;
1620 : : }
1621 : 0 : return skb;
1622 : : }
1623 : : return NULL;
1624 : : }
1625 : :
1626 : 0 : static struct sk_buff *tcp_sacktag_skip(struct sk_buff *skb, struct sock *sk,
1627 : : u32 skip_to_seq)
1628 : : {
1629 [ # # # # ]: 0 : if (skb && after(TCP_SKB_CB(skb)->seq, skip_to_seq))
1630 : : return skb;
1631 : :
1632 : 0 : return tcp_sacktag_bsearch(sk, skip_to_seq);
1633 : : }
1634 : :
1635 : 0 : static struct sk_buff *tcp_maybe_skipping_dsack(struct sk_buff *skb,
1636 : : struct sock *sk,
1637 : : struct tcp_sack_block *next_dup,
1638 : : struct tcp_sacktag_state *state,
1639 : : u32 skip_to_seq)
1640 : : {
1641 [ # # ]: 0 : if (!next_dup)
1642 : : return skb;
1643 : :
1644 [ # # ]: 0 : if (before(next_dup->start_seq, skip_to_seq)) {
1645 : 0 : skb = tcp_sacktag_skip(skb, sk, next_dup->start_seq);
1646 : 0 : skb = tcp_sacktag_walk(skb, sk, NULL, state,
1647 : : next_dup->start_seq, next_dup->end_seq,
1648 : : 1);
1649 : : }
1650 : :
1651 : 0 : return skb;
1652 : : }
1653 : :
1654 : : static int tcp_sack_cache_ok(const struct tcp_sock *tp, const struct tcp_sack_block *cache)
1655 : : {
1656 : 0 : return cache < tp->recv_sack_cache + ARRAY_SIZE(tp->recv_sack_cache);
1657 : : }
1658 : :
1659 : : static int
1660 : 0 : tcp_sacktag_write_queue(struct sock *sk, const struct sk_buff *ack_skb,
1661 : : u32 prior_snd_una, struct tcp_sacktag_state *state)
1662 : : {
1663 : : struct tcp_sock *tp = tcp_sk(sk);
1664 : 0 : const unsigned char *ptr = (skb_transport_header(ack_skb) +
1665 : 0 : TCP_SKB_CB(ack_skb)->sacked);
1666 : 0 : struct tcp_sack_block_wire *sp_wire = (struct tcp_sack_block_wire *)(ptr+2);
1667 : : struct tcp_sack_block sp[TCP_NUM_SACKS];
1668 : : struct tcp_sack_block *cache;
1669 : : struct sk_buff *skb;
1670 : 0 : int num_sacks = min(TCP_NUM_SACKS, (ptr[1] - TCPOLEN_SACK_BASE) >> 3);
1671 : : int used_sacks;
1672 : : bool found_dup_sack = false;
1673 : : int i, j;
1674 : : int first_sack_index;
1675 : :
1676 : 0 : state->flag = 0;
1677 : 0 : state->reord = tp->snd_nxt;
1678 : :
1679 [ # # ]: 0 : if (!tp->sacked_out)
1680 : : tcp_highest_sack_reset(sk);
1681 : :
1682 : 0 : found_dup_sack = tcp_check_dsack(sk, ack_skb, sp_wire,
1683 : : num_sacks, prior_snd_una);
1684 [ # # ]: 0 : if (found_dup_sack) {
1685 : 0 : state->flag |= FLAG_DSACKING_ACK;
1686 : 0 : tp->delivered++; /* A spurious retransmission is delivered */
1687 : : }
1688 : :
1689 : : /* Eliminate too old ACKs, but take into
1690 : : * account more or less fresh ones, they can
1691 : : * contain valid SACK info.
1692 : : */
1693 [ # # ]: 0 : if (before(TCP_SKB_CB(ack_skb)->ack_seq, prior_snd_una - tp->max_window))
1694 : : return 0;
1695 : :
1696 [ # # ]: 0 : if (!tp->packets_out)
1697 : : goto out;
1698 : :
1699 : : used_sacks = 0;
1700 : : first_sack_index = 0;
1701 [ # # ]: 0 : for (i = 0; i < num_sacks; i++) {
1702 : 0 : bool dup_sack = !i && found_dup_sack;
1703 : :
1704 : 0 : sp[used_sacks].start_seq = get_unaligned_be32(&sp_wire[i].start_seq);
1705 : 0 : sp[used_sacks].end_seq = get_unaligned_be32(&sp_wire[i].end_seq);
1706 : :
1707 [ # # ]: 0 : if (!tcp_is_sackblock_valid(tp, dup_sack,
1708 : : sp[used_sacks].start_seq,
1709 : : sp[used_sacks].end_seq)) {
1710 : : int mib_idx;
1711 : :
1712 [ # # ]: 0 : if (dup_sack) {
1713 [ # # ]: 0 : if (!tp->undo_marker)
1714 : : mib_idx = LINUX_MIB_TCPDSACKIGNOREDNOUNDO;
1715 : : else
1716 : : mib_idx = LINUX_MIB_TCPDSACKIGNOREDOLD;
1717 : : } else {
1718 : : /* Don't count olds caused by ACK reordering */
1719 [ # # # # ]: 0 : if ((TCP_SKB_CB(ack_skb)->ack_seq != tp->snd_una) &&
1720 : : !after(sp[used_sacks].end_seq, tp->snd_una))
1721 : 0 : continue;
1722 : : mib_idx = LINUX_MIB_TCPSACKDISCARD;
1723 : : }
1724 : :
1725 : 0 : NET_INC_STATS(sock_net(sk), mib_idx);
1726 [ # # ]: 0 : if (i == 0)
1727 : : first_sack_index = -1;
1728 : 0 : continue;
1729 : : }
1730 : :
1731 : : /* Ignore very old stuff early */
1732 [ # # ]: 0 : if (!after(sp[used_sacks].end_seq, prior_snd_una)) {
1733 [ # # ]: 0 : if (i == 0)
1734 : : first_sack_index = -1;
1735 : 0 : continue;
1736 : : }
1737 : :
1738 : 0 : used_sacks++;
1739 : : }
1740 : :
1741 : : /* order SACK blocks to allow in order walk of the retrans queue */
1742 [ # # ]: 0 : for (i = used_sacks - 1; i > 0; i--) {
1743 [ # # ]: 0 : for (j = 0; j < i; j++) {
1744 [ # # ]: 0 : if (after(sp[j].start_seq, sp[j + 1].start_seq)) {
1745 : 0 : swap(sp[j], sp[j + 1]);
1746 : :
1747 : : /* Track where the first SACK block goes to */
1748 [ # # ]: 0 : if (j == first_sack_index)
1749 : : first_sack_index = j + 1;
1750 : : }
1751 : : }
1752 : : }
1753 : :
1754 : 0 : state->mss_now = tcp_current_mss(sk);
1755 : : skb = NULL;
1756 : : i = 0;
1757 : :
1758 [ # # ]: 0 : if (!tp->sacked_out) {
1759 : : /* It's already past, so skip checking against it */
1760 : 0 : cache = tp->recv_sack_cache + ARRAY_SIZE(tp->recv_sack_cache);
1761 : : } else {
1762 : 0 : cache = tp->recv_sack_cache;
1763 : : /* Skip empty blocks in at head of the cache */
1764 [ # # # # : 0 : while (tcp_sack_cache_ok(tp, cache) && !cache->start_seq &&
# # ]
1765 : 0 : !cache->end_seq)
1766 : 0 : cache++;
1767 : : }
1768 : :
1769 [ # # ]: 0 : while (i < used_sacks) {
1770 : 0 : u32 start_seq = sp[i].start_seq;
1771 : 0 : u32 end_seq = sp[i].end_seq;
1772 : 0 : bool dup_sack = (found_dup_sack && (i == first_sack_index));
1773 : : struct tcp_sack_block *next_dup = NULL;
1774 : :
1775 [ # # # # ]: 0 : if (found_dup_sack && ((i + 1) == first_sack_index))
1776 : 0 : next_dup = &sp[i + 1];
1777 : :
1778 : : /* Skip too early cached blocks */
1779 [ # # # # ]: 0 : while (tcp_sack_cache_ok(tp, cache) &&
1780 : 0 : !before(start_seq, cache->end_seq))
1781 : 0 : cache++;
1782 : :
1783 : : /* Can skip some work by looking recv_sack_cache? */
1784 [ # # # # : 0 : if (tcp_sack_cache_ok(tp, cache) && !dup_sack &&
# # ]
1785 : 0 : after(end_seq, cache->start_seq)) {
1786 : :
1787 : : /* Head todo? */
1788 [ # # ]: 0 : if (before(start_seq, cache->start_seq)) {
1789 : 0 : skb = tcp_sacktag_skip(skb, sk, start_seq);
1790 : 0 : skb = tcp_sacktag_walk(skb, sk, next_dup,
1791 : : state,
1792 : : start_seq,
1793 : : cache->start_seq,
1794 : : dup_sack);
1795 : : }
1796 : :
1797 : : /* Rest of the block already fully processed? */
1798 [ # # ]: 0 : if (!after(end_seq, cache->end_seq))
1799 : : goto advance_sp;
1800 : :
1801 : 0 : skb = tcp_maybe_skipping_dsack(skb, sk, next_dup,
1802 : : state,
1803 : : cache->end_seq);
1804 : :
1805 : : /* ...tail remains todo... */
1806 [ # # ]: 0 : if (tcp_highest_sack_seq(tp) == cache->end_seq) {
1807 : : /* ...but better entrypoint exists! */
1808 : : skb = tcp_highest_sack(sk);
1809 [ # # ]: 0 : if (!skb)
1810 : : break;
1811 : 0 : cache++;
1812 : 0 : goto walk;
1813 : : }
1814 : :
1815 : 0 : skb = tcp_sacktag_skip(skb, sk, cache->end_seq);
1816 : : /* Check overlap against next cached too (past this one already) */
1817 : 0 : cache++;
1818 : 0 : continue;
1819 : : }
1820 : :
1821 [ # # ]: 0 : if (!before(start_seq, tcp_highest_sack_seq(tp))) {
1822 : : skb = tcp_highest_sack(sk);
1823 [ # # ]: 0 : if (!skb)
1824 : : break;
1825 : : }
1826 : 0 : skb = tcp_sacktag_skip(skb, sk, start_seq);
1827 : :
1828 : : walk:
1829 : 0 : skb = tcp_sacktag_walk(skb, sk, next_dup, state,
1830 : : start_seq, end_seq, dup_sack);
1831 : :
1832 : : advance_sp:
1833 : 0 : i++;
1834 : : }
1835 : :
1836 : : /* Clear the head of the cache sack blocks so we can skip it next time */
1837 [ # # ]: 0 : for (i = 0; i < ARRAY_SIZE(tp->recv_sack_cache) - used_sacks; i++) {
1838 : 0 : tp->recv_sack_cache[i].start_seq = 0;
1839 : 0 : tp->recv_sack_cache[i].end_seq = 0;
1840 : : }
1841 [ # # ]: 0 : for (j = 0; j < used_sacks; j++)
1842 : 0 : tp->recv_sack_cache[i++] = sp[j];
1843 : :
1844 [ # # # # ]: 0 : if (inet_csk(sk)->icsk_ca_state != TCP_CA_Loss || tp->undo_marker)
1845 : 0 : tcp_check_sack_reordering(sk, state->reord, 0);
1846 : :
1847 [ # # ]: 0 : tcp_verify_left_out(tp);
1848 : : out:
1849 : :
1850 : : #if FASTRETRANS_DEBUG > 0
1851 [ # # ]: 0 : WARN_ON((int)tp->sacked_out < 0);
1852 [ # # ]: 0 : WARN_ON((int)tp->lost_out < 0);
1853 [ # # ]: 0 : WARN_ON((int)tp->retrans_out < 0);
1854 [ # # ]: 0 : WARN_ON((int)tcp_packets_in_flight(tp) < 0);
1855 : : #endif
1856 : 0 : return state->flag;
1857 : : }
1858 : :
1859 : : /* Limits sacked_out so that sum with lost_out isn't ever larger than
1860 : : * packets_out. Returns false if sacked_out adjustement wasn't necessary.
1861 : : */
1862 : : static bool tcp_limit_reno_sacked(struct tcp_sock *tp)
1863 : : {
1864 : : u32 holes;
1865 : :
1866 : 500 : holes = max(tp->lost_out, 1U);
1867 : 500 : holes = min(holes, tp->packets_out);
1868 : :
1869 [ # # - + ]: 500 : if ((tp->sacked_out + holes) > tp->packets_out) {
1870 : 0 : tp->sacked_out = tp->packets_out - holes;
1871 : : return true;
1872 : : }
1873 : : return false;
1874 : : }
1875 : :
1876 : : /* If we receive more dupacks than we expected counting segments
1877 : : * in assumption of absent reordering, interpret this as reordering.
1878 : : * The only another reason could be bug in receiver TCP.
1879 : : */
1880 : 500 : static void tcp_check_reno_reordering(struct sock *sk, const int addend)
1881 : : {
1882 : : struct tcp_sock *tp = tcp_sk(sk);
1883 : :
1884 [ - + ]: 500 : if (!tcp_limit_reno_sacked(tp))
1885 : 500 : return;
1886 : :
1887 : 0 : tp->reordering = min_t(u32, tp->packets_out + addend,
1888 : : sock_net(sk)->ipv4.sysctl_tcp_max_reordering);
1889 : 0 : tp->reord_seen++;
1890 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRENOREORDER);
1891 : : }
1892 : :
1893 : : /* Emulate SACKs for SACKless connection: account for a new dupack. */
1894 : :
1895 : 6 : static void tcp_add_reno_sack(struct sock *sk, int num_dupack)
1896 : : {
1897 [ - + ]: 6 : if (num_dupack) {
1898 : : struct tcp_sock *tp = tcp_sk(sk);
1899 : 0 : u32 prior_sacked = tp->sacked_out;
1900 : : s32 delivered;
1901 : :
1902 : 0 : tp->sacked_out += num_dupack;
1903 : 0 : tcp_check_reno_reordering(sk, 0);
1904 : 0 : delivered = tp->sacked_out - prior_sacked;
1905 [ # # ]: 0 : if (delivered > 0)
1906 : 0 : tp->delivered += delivered;
1907 [ # # ]: 0 : tcp_verify_left_out(tp);
1908 : : }
1909 : 6 : }
1910 : :
1911 : : /* Account for ACK, ACKing some data in Reno Recovery phase. */
1912 : :
1913 : 500 : static void tcp_remove_reno_sacks(struct sock *sk, int acked)
1914 : : {
1915 : : struct tcp_sock *tp = tcp_sk(sk);
1916 : :
1917 [ + - ]: 500 : if (acked > 0) {
1918 : : /* One ACK acked hole. The rest eat duplicate ACKs. */
1919 : 500 : tp->delivered += max_t(int, acked - tp->sacked_out, 1);
1920 [ + - ]: 500 : if (acked - 1 >= tp->sacked_out)
1921 : 500 : tp->sacked_out = 0;
1922 : : else
1923 : 0 : tp->sacked_out -= acked - 1;
1924 : : }
1925 : 500 : tcp_check_reno_reordering(sk, acked);
1926 [ - + ]: 500 : tcp_verify_left_out(tp);
1927 : 500 : }
1928 : :
1929 : : static inline void tcp_reset_reno_sack(struct tcp_sock *tp)
1930 : : {
1931 : 18 : tp->sacked_out = 0;
1932 : : }
1933 : :
1934 : 72 : void tcp_clear_retrans(struct tcp_sock *tp)
1935 : : {
1936 : 72 : tp->retrans_out = 0;
1937 : 72 : tp->lost_out = 0;
1938 : 72 : tp->undo_marker = 0;
1939 : 72 : tp->undo_retrans = -1;
1940 : 72 : tp->sacked_out = 0;
1941 : 72 : }
1942 : :
1943 : : static inline void tcp_init_undo(struct tcp_sock *tp)
1944 : : {
1945 : 6 : tp->undo_marker = tp->snd_una;
1946 : : /* Retransmission still in flight may cause DSACKs later. */
1947 [ # # - + ]: 6 : tp->undo_retrans = tp->retrans_out ? : -1;
1948 : : }
1949 : :
1950 : : static bool tcp_is_rack(const struct sock *sk)
1951 : : {
1952 : 18 : return sock_net(sk)->ipv4.sysctl_tcp_recovery & TCP_RACK_LOSS_DETECTION;
1953 : : }
1954 : :
1955 : : /* If we detect SACK reneging, forget all SACK information
1956 : : * and reset tags completely, otherwise preserve SACKs. If receiver
1957 : : * dropped its ofo queue, we will know this due to reneging detection.
1958 : : */
1959 : 6 : static void tcp_timeout_mark_lost(struct sock *sk)
1960 : : {
1961 : : struct tcp_sock *tp = tcp_sk(sk);
1962 : : struct sk_buff *skb, *head;
1963 : : bool is_reneg; /* is receiver reneging on SACKs? */
1964 : :
1965 : : head = tcp_rtx_queue_head(sk);
1966 [ + - + - ]: 6 : is_reneg = head && (TCP_SKB_CB(head)->sacked & TCPCB_SACKED_ACKED);
1967 [ - + ]: 6 : if (is_reneg) {
1968 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPSACKRENEGING);
1969 : 0 : tp->sacked_out = 0;
1970 : : /* Mark SACK reneging until we recover from this loss event. */
1971 : 0 : tp->is_sack_reneg = 1;
1972 [ + - ]: 6 : } else if (tcp_is_reno(tp)) {
1973 : : tcp_reset_reno_sack(tp);
1974 : : }
1975 : :
1976 : : skb = head;
1977 [ + + + + ]: 18 : skb_rbtree_walk_from(skb) {
1978 [ - + ]: 12 : if (is_reneg)
1979 : 0 : TCP_SKB_CB(skb)->sacked &= ~TCPCB_SACKED_ACKED;
1980 [ + - + + : 18 : else if (tcp_is_rack(sk) && skb != head &&
- + ]
1981 : 6 : tcp_rack_skb_timeout(tp, skb, 0) > 0)
1982 : 0 : continue; /* Don't mark recently sent ones lost yet */
1983 : 12 : tcp_mark_skb_lost(sk, skb);
1984 : : }
1985 [ - + ]: 6 : tcp_verify_left_out(tp);
1986 : : tcp_clear_all_retrans_hints(tp);
1987 : 6 : }
1988 : :
1989 : : /* Enter Loss state. */
1990 : 6 : void tcp_enter_loss(struct sock *sk)
1991 : : {
1992 : : const struct inet_connection_sock *icsk = inet_csk(sk);
1993 : : struct tcp_sock *tp = tcp_sk(sk);
1994 : : struct net *net = sock_net(sk);
1995 : 6 : bool new_recovery = icsk->icsk_ca_state < TCP_CA_Recovery;
1996 : :
1997 : 6 : tcp_timeout_mark_lost(sk);
1998 : :
1999 : : /* Reduce ssthresh if it has not yet been made inside this window. */
2000 [ - + # # ]: 6 : if (icsk->icsk_ca_state <= TCP_CA_Disorder ||
2001 [ # # ]: 0 : !after(tp->high_seq, tp->snd_una) ||
2002 : 0 : (icsk->icsk_ca_state == TCP_CA_Loss && !icsk->icsk_retransmits)) {
2003 : 6 : tp->prior_ssthresh = tcp_current_ssthresh(sk);
2004 : 6 : tp->prior_cwnd = tp->snd_cwnd;
2005 : 6 : tp->snd_ssthresh = icsk->icsk_ca_ops->ssthresh(sk);
2006 : : tcp_ca_event(sk, CA_EVENT_LOSS);
2007 : : tcp_init_undo(tp);
2008 : : }
2009 : 6 : tp->snd_cwnd = tcp_packets_in_flight(tp) + 1;
2010 : 6 : tp->snd_cwnd_cnt = 0;
2011 : 6 : tp->snd_cwnd_stamp = tcp_jiffies32;
2012 : :
2013 : : /* Timeout in disordered state after receiving substantial DUPACKs
2014 : : * suggests that the degree of reordering is over-estimated.
2015 : : */
2016 [ + - - + ]: 12 : if (icsk->icsk_ca_state <= TCP_CA_Disorder &&
2017 : 6 : tp->sacked_out >= net->ipv4.sysctl_tcp_reordering)
2018 : 0 : tp->reordering = min_t(unsigned int, tp->reordering,
2019 : : net->ipv4.sysctl_tcp_reordering);
2020 : : tcp_set_ca_state(sk, TCP_CA_Loss);
2021 : 6 : tp->high_seq = tp->snd_nxt;
2022 : : tcp_ecn_queue_cwr(tp);
2023 : :
2024 : : /* F-RTO RFC5682 sec 3.1 step 1: retransmit SND.UNA if no previous
2025 : : * loss recovery is underway except recurring timeout(s) on
2026 : : * the same SND.UNA (sec 3.2). Disable F-RTO on path MTU probing
2027 : : */
2028 [ - + ]: 18 : tp->frto = net->ipv4.sysctl_tcp_frto &&
2029 [ + - # # : 12 : (new_recovery || icsk->icsk_retransmits) &&
- + ]
2030 : 6 : !inet_csk(sk)->icsk_mtup.probe_size;
2031 : 6 : }
2032 : :
2033 : : /* If ACK arrived pointing to a remembered SACK, it means that our
2034 : : * remembered SACKs do not reflect real state of receiver i.e.
2035 : : * receiver _host_ is heavily congested (or buggy).
2036 : : *
2037 : : * To avoid big spurious retransmission bursts due to transient SACK
2038 : : * scoreboard oddities that look like reneging, we give the receiver a
2039 : : * little time (max(RTT/2, 10ms)) to send us some more ACKs that will
2040 : : * restore sanity to the SACK scoreboard. If the apparent reneging
2041 : : * persists until this RTO then we'll clear the SACK scoreboard.
2042 : : */
2043 : 16 : static bool tcp_check_sack_reneging(struct sock *sk, int flag)
2044 : : {
2045 [ - + ]: 16 : if (flag & FLAG_SACK_RENEGING) {
2046 : : struct tcp_sock *tp = tcp_sk(sk);
2047 : 0 : unsigned long delay = max(usecs_to_jiffies(tp->srtt_us >> 4),
2048 : : msecs_to_jiffies(10));
2049 : :
2050 : 0 : inet_csk_reset_xmit_timer(sk, ICSK_TIME_RETRANS,
2051 : : delay, TCP_RTO_MAX);
2052 : 0 : return true;
2053 : : }
2054 : : return false;
2055 : : }
2056 : :
2057 : : /* Heurestics to calculate number of duplicate ACKs. There's no dupACKs
2058 : : * counter when SACK is enabled (without SACK, sacked_out is used for
2059 : : * that purpose).
2060 : : *
2061 : : * With reordering, holes may still be in flight, so RFC3517 recovery
2062 : : * uses pure sacked_out (total number of SACKed segments) even though
2063 : : * it violates the RFC that uses duplicate ACKs, often these are equal
2064 : : * but when e.g. out-of-window ACKs or packet duplication occurs,
2065 : : * they differ. Since neither occurs due to loss, TCP should really
2066 : : * ignore them.
2067 : : */
2068 : : static inline int tcp_dupack_heuristics(const struct tcp_sock *tp)
2069 : : {
2070 : 0 : return tp->sacked_out + 1;
2071 : : }
2072 : :
2073 : : /* Linux NewReno/SACK/ECN state machine.
2074 : : * --------------------------------------
2075 : : *
2076 : : * "Open" Normal state, no dubious events, fast path.
2077 : : * "Disorder" In all the respects it is "Open",
2078 : : * but requires a bit more attention. It is entered when
2079 : : * we see some SACKs or dupacks. It is split of "Open"
2080 : : * mainly to move some processing from fast path to slow one.
2081 : : * "CWR" CWND was reduced due to some Congestion Notification event.
2082 : : * It can be ECN, ICMP source quench, local device congestion.
2083 : : * "Recovery" CWND was reduced, we are fast-retransmitting.
2084 : : * "Loss" CWND was reduced due to RTO timeout or SACK reneging.
2085 : : *
2086 : : * tcp_fastretrans_alert() is entered:
2087 : : * - each incoming ACK, if state is not "Open"
2088 : : * - when arrived ACK is unusual, namely:
2089 : : * * SACK
2090 : : * * Duplicate ACK.
2091 : : * * ECN ECE.
2092 : : *
2093 : : * Counting packets in flight is pretty simple.
2094 : : *
2095 : : * in_flight = packets_out - left_out + retrans_out
2096 : : *
2097 : : * packets_out is SND.NXT-SND.UNA counted in packets.
2098 : : *
2099 : : * retrans_out is number of retransmitted segments.
2100 : : *
2101 : : * left_out is number of segments left network, but not ACKed yet.
2102 : : *
2103 : : * left_out = sacked_out + lost_out
2104 : : *
2105 : : * sacked_out: Packets, which arrived to receiver out of order
2106 : : * and hence not ACKed. With SACKs this number is simply
2107 : : * amount of SACKed data. Even without SACKs
2108 : : * it is easy to give pretty reliable estimate of this number,
2109 : : * counting duplicate ACKs.
2110 : : *
2111 : : * lost_out: Packets lost by network. TCP has no explicit
2112 : : * "loss notification" feedback from network (for now).
2113 : : * It means that this number can be only _guessed_.
2114 : : * Actually, it is the heuristics to predict lossage that
2115 : : * distinguishes different algorithms.
2116 : : *
2117 : : * F.e. after RTO, when all the queue is considered as lost,
2118 : : * lost_out = packets_out and in_flight = retrans_out.
2119 : : *
2120 : : * Essentially, we have now a few algorithms detecting
2121 : : * lost packets.
2122 : : *
2123 : : * If the receiver supports SACK:
2124 : : *
2125 : : * RFC6675/3517: It is the conventional algorithm. A packet is
2126 : : * considered lost if the number of higher sequence packets
2127 : : * SACKed is greater than or equal the DUPACK thoreshold
2128 : : * (reordering). This is implemented in tcp_mark_head_lost and
2129 : : * tcp_update_scoreboard.
2130 : : *
2131 : : * RACK (draft-ietf-tcpm-rack-01): it is a newer algorithm
2132 : : * (2017-) that checks timing instead of counting DUPACKs.
2133 : : * Essentially a packet is considered lost if it's not S/ACKed
2134 : : * after RTT + reordering_window, where both metrics are
2135 : : * dynamically measured and adjusted. This is implemented in
2136 : : * tcp_rack_mark_lost.
2137 : : *
2138 : : * If the receiver does not support SACK:
2139 : : *
2140 : : * NewReno (RFC6582): in Recovery we assume that one segment
2141 : : * is lost (classic Reno). While we are in Recovery and
2142 : : * a partial ACK arrives, we assume that one more packet
2143 : : * is lost (NewReno). This heuristics are the same in NewReno
2144 : : * and SACK.
2145 : : *
2146 : : * Really tricky (and requiring careful tuning) part of algorithm
2147 : : * is hidden in functions tcp_time_to_recover() and tcp_xmit_retransmit_queue().
2148 : : * The first determines the moment _when_ we should reduce CWND and,
2149 : : * hence, slow down forward transmission. In fact, it determines the moment
2150 : : * when we decide that hole is caused by loss, rather than by a reorder.
2151 : : *
2152 : : * tcp_xmit_retransmit_queue() decides, _what_ we should retransmit to fill
2153 : : * holes, caused by lost packets.
2154 : : *
2155 : : * And the most logically complicated part of algorithm is undo
2156 : : * heuristics. We detect false retransmits due to both too early
2157 : : * fast retransmit (reordering) and underestimated RTO, analyzing
2158 : : * timestamps and D-SACKs. When we detect that some segments were
2159 : : * retransmitted by mistake and CWND reduction was wrong, we undo
2160 : : * window reduction and abort recovery phase. This logic is hidden
2161 : : * inside several functions named tcp_try_undo_<something>.
2162 : : */
2163 : :
2164 : : /* This function decides, when we should leave Disordered state
2165 : : * and enter Recovery phase, reducing congestion window.
2166 : : *
2167 : : * Main question: may we further continue forward transmission
2168 : : * with the same cwnd?
2169 : : */
2170 : : static bool tcp_time_to_recover(struct sock *sk, int flag)
2171 : : {
2172 : : struct tcp_sock *tp = tcp_sk(sk);
2173 : :
2174 : : /* Trick#1: The loss is proven. */
2175 [ + - ]: 6 : if (tp->lost_out)
2176 : : return true;
2177 : :
2178 : : /* Not-A-Trick#2 : Classic rule... */
2179 [ - + # # ]: 6 : if (!tcp_is_rack(sk) && tcp_dupack_heuristics(tp) > tp->reordering)
2180 : : return true;
2181 : :
2182 : : return false;
2183 : : }
2184 : :
2185 : : /* Detect loss in event "A" above by marking head of queue up as lost.
2186 : : * For non-SACK(Reno) senders, the first "packets" number of segments
2187 : : * are considered lost. For RFC3517 SACK, a segment is considered lost if it
2188 : : * has at least tp->reordering SACKed seqments above it; "packets" refers to
2189 : : * the maximum SACKed segments to pass before reaching this limit.
2190 : : */
2191 : 0 : static void tcp_mark_head_lost(struct sock *sk, int packets, int mark_head)
2192 : : {
2193 : : struct tcp_sock *tp = tcp_sk(sk);
2194 : : struct sk_buff *skb;
2195 : : int cnt, oldcnt, lost;
2196 : : unsigned int mss;
2197 : : /* Use SACK to deduce losses of new sequences sent during recovery */
2198 [ # # ]: 0 : const u32 loss_high = tcp_is_sack(tp) ? tp->snd_nxt : tp->high_seq;
2199 : :
2200 [ # # ]: 0 : WARN_ON(packets > tp->packets_out);
2201 : 0 : skb = tp->lost_skb_hint;
2202 [ # # ]: 0 : if (skb) {
2203 : : /* Head already handled? */
2204 [ # # # # ]: 0 : if (mark_head && after(TCP_SKB_CB(skb)->seq, tp->snd_una))
2205 : 0 : return;
2206 : 0 : cnt = tp->lost_cnt_hint;
2207 : : } else {
2208 : : skb = tcp_rtx_queue_head(sk);
2209 : : cnt = 0;
2210 : : }
2211 : :
2212 [ # # # # ]: 0 : skb_rbtree_walk_from(skb) {
2213 : : /* TODO: do this better */
2214 : : /* this is not the most efficient way to do this... */
2215 : 0 : tp->lost_skb_hint = skb;
2216 : 0 : tp->lost_cnt_hint = cnt;
2217 : :
2218 [ # # ]: 0 : if (after(TCP_SKB_CB(skb)->end_seq, loss_high))
2219 : : break;
2220 : :
2221 : : oldcnt = cnt;
2222 [ # # # # ]: 0 : if (tcp_is_reno(tp) ||
2223 : 0 : (TCP_SKB_CB(skb)->sacked & TCPCB_SACKED_ACKED))
2224 : 0 : cnt += tcp_skb_pcount(skb);
2225 : :
2226 [ # # ]: 0 : if (cnt > packets) {
2227 [ # # # # ]: 0 : if (tcp_is_sack(tp) ||
2228 [ # # ]: 0 : (TCP_SKB_CB(skb)->sacked & TCPCB_SACKED_ACKED) ||
2229 : : (oldcnt >= packets))
2230 : : break;
2231 : :
2232 : 0 : mss = tcp_skb_mss(skb);
2233 : : /* If needed, chop off the prefix to mark as lost. */
2234 : 0 : lost = (packets - oldcnt) * mss;
2235 [ # # # # ]: 0 : if (lost < skb->len &&
2236 : 0 : tcp_fragment(sk, TCP_FRAG_IN_RTX_QUEUE, skb,
2237 : : lost, mss, GFP_ATOMIC) < 0)
2238 : : break;
2239 : : cnt = packets;
2240 : : }
2241 : :
2242 : 0 : tcp_skb_mark_lost(tp, skb);
2243 : :
2244 [ # # ]: 0 : if (mark_head)
2245 : : break;
2246 : : }
2247 [ # # ]: 0 : tcp_verify_left_out(tp);
2248 : : }
2249 : :
2250 : : /* Account newly detected lost packet(s) */
2251 : :
2252 : 0 : static void tcp_update_scoreboard(struct sock *sk, int fast_rexmit)
2253 : : {
2254 : : struct tcp_sock *tp = tcp_sk(sk);
2255 : :
2256 [ # # ]: 0 : if (tcp_is_sack(tp)) {
2257 : 0 : int sacked_upto = tp->sacked_out - tp->reordering;
2258 [ # # ]: 0 : if (sacked_upto >= 0)
2259 : 0 : tcp_mark_head_lost(sk, sacked_upto, 0);
2260 [ # # ]: 0 : else if (fast_rexmit)
2261 : 0 : tcp_mark_head_lost(sk, 1, 1);
2262 : : }
2263 : 0 : }
2264 : :
2265 : : static bool tcp_tsopt_ecr_before(const struct tcp_sock *tp, u32 when)
2266 : : {
2267 [ # # # # : 16 : return tp->rx_opt.saw_tstamp && tp->rx_opt.rcv_tsecr &&
# # - + #
# # # # #
# # # # ]
2268 : : before(tp->rx_opt.rcv_tsecr, when);
2269 : : }
2270 : :
2271 : : /* skb is spurious retransmitted if the returned timestamp echo
2272 : : * reply is prior to the skb transmission time
2273 : : */
2274 : 0 : static bool tcp_skb_spurious_retrans(const struct tcp_sock *tp,
2275 : : const struct sk_buff *skb)
2276 : : {
2277 [ # # # # ]: 0 : return (TCP_SKB_CB(skb)->sacked & TCPCB_RETRANS) &&
2278 : : tcp_tsopt_ecr_before(tp, tcp_skb_timestamp(skb));
2279 : : }
2280 : :
2281 : : /* Nothing was retransmitted or returned timestamp is less
2282 : : * than timestamp of the first retransmission.
2283 : : */
2284 : : static inline bool tcp_packet_delayed(const struct tcp_sock *tp)
2285 : : {
2286 [ # # # # : 40 : return tp->retrans_stamp &&
+ + + - ]
2287 : : tcp_tsopt_ecr_before(tp, tp->retrans_stamp);
2288 : : }
2289 : :
2290 : : /* Undo procedures. */
2291 : :
2292 : : /* We can clear retrans_stamp when there are no retransmissions in the
2293 : : * window. It would seem that it is trivially available for us in
2294 : : * tp->retrans_out, however, that kind of assumptions doesn't consider
2295 : : * what will happen if errors occur when sending retransmission for the
2296 : : * second time. ...It could the that such segment has only
2297 : : * TCPCB_EVER_RETRANS set at the present time. It seems that checking
2298 : : * the head skb is enough except for some reneging corner cases that
2299 : : * are not worth the effort.
2300 : : *
2301 : : * Main reason for all this complexity is the fact that connection dying
2302 : : * time now depends on the validity of the retrans_stamp, in particular,
2303 : : * that successive retransmissions of a segment must not advance
2304 : : * retrans_stamp under any conditions.
2305 : : */
2306 : 16 : static bool tcp_any_retrans_done(const struct sock *sk)
2307 : : {
2308 : : const struct tcp_sock *tp = tcp_sk(sk);
2309 : : struct sk_buff *skb;
2310 : :
2311 [ + - ]: 16 : if (tp->retrans_out)
2312 : : return true;
2313 : :
2314 : : skb = tcp_rtx_queue_head(sk);
2315 [ + + + - ]: 16 : if (unlikely(skb && TCP_SKB_CB(skb)->sacked & TCPCB_EVER_RETRANS))
2316 : : return true;
2317 : :
2318 : 16 : return false;
2319 : : }
2320 : :
2321 : : static void DBGUNDO(struct sock *sk, const char *msg)
2322 : : {
2323 : : #if FASTRETRANS_DEBUG > 1
2324 : : struct tcp_sock *tp = tcp_sk(sk);
2325 : : struct inet_sock *inet = inet_sk(sk);
2326 : :
2327 : : if (sk->sk_family == AF_INET) {
2328 : : pr_debug("Undo %s %pI4/%u c%u l%u ss%u/%u p%u\n",
2329 : : msg,
2330 : : &inet->inet_daddr, ntohs(inet->inet_dport),
2331 : : tp->snd_cwnd, tcp_left_out(tp),
2332 : : tp->snd_ssthresh, tp->prior_ssthresh,
2333 : : tp->packets_out);
2334 : : }
2335 : : #if IS_ENABLED(CONFIG_IPV6)
2336 : : else if (sk->sk_family == AF_INET6) {
2337 : : pr_debug("Undo %s %pI6/%u c%u l%u ss%u/%u p%u\n",
2338 : : msg,
2339 : : &sk->sk_v6_daddr, ntohs(inet->inet_dport),
2340 : : tp->snd_cwnd, tcp_left_out(tp),
2341 : : tp->snd_ssthresh, tp->prior_ssthresh,
2342 : : tp->packets_out);
2343 : : }
2344 : : #endif
2345 : : #endif
2346 : : }
2347 : :
2348 : 2 : static void tcp_undo_cwnd_reduction(struct sock *sk, bool unmark_loss)
2349 : : {
2350 : : struct tcp_sock *tp = tcp_sk(sk);
2351 : :
2352 [ + - ]: 2 : if (unmark_loss) {
2353 : : struct sk_buff *skb;
2354 : :
2355 [ - + # # : 2 : skb_rbtree_walk(skb, &sk->tcp_rtx_queue) {
- + ]
2356 : 0 : TCP_SKB_CB(skb)->sacked &= ~TCPCB_LOST;
2357 : : }
2358 : 2 : tp->lost_out = 0;
2359 : : tcp_clear_all_retrans_hints(tp);
2360 : : }
2361 : :
2362 [ + - ]: 2 : if (tp->prior_ssthresh) {
2363 : : const struct inet_connection_sock *icsk = inet_csk(sk);
2364 : :
2365 : 2 : tp->snd_cwnd = icsk->icsk_ca_ops->undo_cwnd(sk);
2366 : :
2367 [ + - ]: 2 : if (tp->prior_ssthresh > tp->snd_ssthresh) {
2368 : 2 : tp->snd_ssthresh = tp->prior_ssthresh;
2369 : : tcp_ecn_withdraw_cwr(tp);
2370 : : }
2371 : : }
2372 : 2 : tp->snd_cwnd_stamp = tcp_jiffies32;
2373 : 2 : tp->undo_marker = 0;
2374 : 2 : tp->rack.advanced = 1; /* Force RACK to re-exam losses */
2375 : 2 : }
2376 : :
2377 : 24 : static inline bool tcp_may_undo(const struct tcp_sock *tp)
2378 : : {
2379 [ + - + - : 48 : return tp->undo_marker && (!tp->undo_retrans || tcp_packet_delayed(tp));
+ - ]
2380 : : }
2381 : :
2382 : : /* People celebrate: "We love our President!" */
2383 : 8 : static bool tcp_try_undo_recovery(struct sock *sk)
2384 : : {
2385 : : struct tcp_sock *tp = tcp_sk(sk);
2386 : :
2387 [ - + ]: 8 : if (tcp_may_undo(tp)) {
2388 : : int mib_idx;
2389 : :
2390 : : /* Happy end! We did not retransmit anything
2391 : : * or our original transmission succeeded.
2392 : : */
2393 : : DBGUNDO(sk, inet_csk(sk)->icsk_ca_state == TCP_CA_Loss ? "loss" : "retrans");
2394 : 0 : tcp_undo_cwnd_reduction(sk, false);
2395 [ # # ]: 0 : if (inet_csk(sk)->icsk_ca_state == TCP_CA_Loss)
2396 : : mib_idx = LINUX_MIB_TCPLOSSUNDO;
2397 : : else
2398 : : mib_idx = LINUX_MIB_TCPFULLUNDO;
2399 : :
2400 : 0 : NET_INC_STATS(sock_net(sk), mib_idx);
2401 [ - + ]: 8 : } else if (tp->rack.reo_wnd_persist) {
2402 : 0 : tp->rack.reo_wnd_persist--;
2403 : : }
2404 [ + + + - ]: 12 : if (tp->snd_una == tp->high_seq && tcp_is_reno(tp)) {
2405 : : /* Hold old state until something *above* high_seq
2406 : : * is ACKed. For Reno it is MUST to prevent false
2407 : : * fast retransmits (RFC2582). SACK TCP is safe. */
2408 [ + - ]: 4 : if (!tcp_any_retrans_done(sk))
2409 : 4 : tp->retrans_stamp = 0;
2410 : : return true;
2411 : : }
2412 : : tcp_set_ca_state(sk, TCP_CA_Open);
2413 : 4 : tp->is_sack_reneg = 0;
2414 : 4 : return false;
2415 : : }
2416 : :
2417 : : /* Try to undo cwnd reduction, because D-SACKs acked all retransmitted data */
2418 : 6 : static bool tcp_try_undo_dsack(struct sock *sk)
2419 : : {
2420 : : struct tcp_sock *tp = tcp_sk(sk);
2421 : :
2422 [ + + - + ]: 6 : if (tp->undo_marker && !tp->undo_retrans) {
2423 : 0 : tp->rack.reo_wnd_persist = min(TCP_RACK_RECOVERY_THRESH,
2424 : : tp->rack.reo_wnd_persist + 1);
2425 : : DBGUNDO(sk, "D-SACK");
2426 : 0 : tcp_undo_cwnd_reduction(sk, false);
2427 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDSACKUNDO);
2428 : 0 : return true;
2429 : : }
2430 : : return false;
2431 : : }
2432 : :
2433 : : /* Undo during loss recovery after partial ACK or using F-RTO. */
2434 : 18 : static bool tcp_try_undo_loss(struct sock *sk, bool frto_undo)
2435 : : {
2436 : : struct tcp_sock *tp = tcp_sk(sk);
2437 : :
2438 [ + + - + ]: 18 : if (frto_undo || tcp_may_undo(tp)) {
2439 : 2 : tcp_undo_cwnd_reduction(sk, true);
2440 : :
2441 : : DBGUNDO(sk, "partial loss");
2442 : 4 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPLOSSUNDO);
2443 [ + - ]: 2 : if (frto_undo)
2444 : 4 : NET_INC_STATS(sock_net(sk),
2445 : : LINUX_MIB_TCPSPURIOUSRTOS);
2446 : 2 : inet_csk(sk)->icsk_retransmits = 0;
2447 [ - + # # ]: 2 : if (frto_undo || tcp_is_sack(tp)) {
2448 : : tcp_set_ca_state(sk, TCP_CA_Open);
2449 : 2 : tp->is_sack_reneg = 0;
2450 : : }
2451 : : return true;
2452 : : }
2453 : : return false;
2454 : : }
2455 : :
2456 : : /* The cwnd reduction in CWR and Recovery uses the PRR algorithm in RFC 6937.
2457 : : * It computes the number of packets to send (sndcnt) based on packets newly
2458 : : * delivered:
2459 : : * 1) If the packets in flight is larger than ssthresh, PRR spreads the
2460 : : * cwnd reductions across a full RTT.
2461 : : * 2) Otherwise PRR uses packet conservation to send as much as delivered.
2462 : : * But when the retransmits are acked without further losses, PRR
2463 : : * slow starts cwnd up to ssthresh to speed up the recovery.
2464 : : */
2465 : 0 : static void tcp_init_cwnd_reduction(struct sock *sk)
2466 : : {
2467 : : struct tcp_sock *tp = tcp_sk(sk);
2468 : :
2469 : 0 : tp->high_seq = tp->snd_nxt;
2470 : 0 : tp->tlp_high_seq = 0;
2471 : 0 : tp->snd_cwnd_cnt = 0;
2472 : 0 : tp->prior_cwnd = tp->snd_cwnd;
2473 : 0 : tp->prr_delivered = 0;
2474 : 0 : tp->prr_out = 0;
2475 : 0 : tp->snd_ssthresh = inet_csk(sk)->icsk_ca_ops->ssthresh(sk);
2476 : : tcp_ecn_queue_cwr(tp);
2477 : 0 : }
2478 : :
2479 : 0 : void tcp_cwnd_reduction(struct sock *sk, int newly_acked_sacked, int flag)
2480 : : {
2481 : : struct tcp_sock *tp = tcp_sk(sk);
2482 : : int sndcnt = 0;
2483 : 0 : int delta = tp->snd_ssthresh - tcp_packets_in_flight(tp);
2484 : :
2485 [ # # # # : 0 : if (newly_acked_sacked <= 0 || WARN_ON_ONCE(!tp->prior_cwnd))
# # # # ]
2486 : 0 : return;
2487 : :
2488 : 0 : tp->prr_delivered += newly_acked_sacked;
2489 [ # # ]: 0 : if (delta < 0) {
2490 : 0 : u64 dividend = (u64)tp->snd_ssthresh * tp->prr_delivered +
2491 : 0 : tp->prior_cwnd - 1;
2492 : 0 : sndcnt = div_u64(dividend, tp->prior_cwnd) - tp->prr_out;
2493 [ # # ]: 0 : } else if ((flag & (FLAG_RETRANS_DATA_ACKED | FLAG_LOST_RETRANS)) ==
2494 : : FLAG_RETRANS_DATA_ACKED) {
2495 : 0 : sndcnt = min_t(int, delta,
2496 : : max_t(int, tp->prr_delivered - tp->prr_out,
2497 : : newly_acked_sacked) + 1);
2498 : : } else {
2499 : 0 : sndcnt = min(delta, newly_acked_sacked);
2500 : : }
2501 : : /* Force a fast retransmit upon entering fast recovery */
2502 : 0 : sndcnt = max(sndcnt, (tp->prr_out ? 0 : 1));
2503 : 0 : tp->snd_cwnd = tcp_packets_in_flight(tp) + sndcnt;
2504 : : }
2505 : :
2506 : 0 : static inline void tcp_end_cwnd_reduction(struct sock *sk)
2507 : : {
2508 : : struct tcp_sock *tp = tcp_sk(sk);
2509 : :
2510 [ # # ]: 0 : if (inet_csk(sk)->icsk_ca_ops->cong_control)
2511 : 0 : return;
2512 : :
2513 : : /* Reset cwnd to ssthresh in CWR or Recovery (unless it's undone) */
2514 [ # # # # ]: 0 : if (tp->snd_ssthresh < TCP_INFINITE_SSTHRESH &&
2515 [ # # ]: 0 : (inet_csk(sk)->icsk_ca_state == TCP_CA_CWR || tp->undo_marker)) {
2516 : 0 : tp->snd_cwnd = tp->snd_ssthresh;
2517 : 0 : tp->snd_cwnd_stamp = tcp_jiffies32;
2518 : : }
2519 : : tcp_ca_event(sk, CA_EVENT_COMPLETE_CWR);
2520 : : }
2521 : :
2522 : : /* Enter CWR state. Disable cwnd undo since congestion is proven with ECN */
2523 : 0 : void tcp_enter_cwr(struct sock *sk)
2524 : : {
2525 : : struct tcp_sock *tp = tcp_sk(sk);
2526 : :
2527 : 0 : tp->prior_ssthresh = 0;
2528 [ # # ]: 0 : if (inet_csk(sk)->icsk_ca_state < TCP_CA_CWR) {
2529 : 0 : tp->undo_marker = 0;
2530 : 0 : tcp_init_cwnd_reduction(sk);
2531 : : tcp_set_ca_state(sk, TCP_CA_CWR);
2532 : : }
2533 : 0 : }
2534 : : EXPORT_SYMBOL(tcp_enter_cwr);
2535 : :
2536 : 6 : static void tcp_try_keep_open(struct sock *sk)
2537 : : {
2538 : : struct tcp_sock *tp = tcp_sk(sk);
2539 : : int state = TCP_CA_Open;
2540 : :
2541 [ + - - + ]: 6 : if (tcp_left_out(tp) || tcp_any_retrans_done(sk))
2542 : : state = TCP_CA_Disorder;
2543 : :
2544 [ - + ]: 6 : if (inet_csk(sk)->icsk_ca_state != state) {
2545 : 0 : tcp_set_ca_state(sk, state);
2546 : 0 : tp->high_seq = tp->snd_nxt;
2547 : : }
2548 : 6 : }
2549 : :
2550 : 6 : static void tcp_try_to_open(struct sock *sk, int flag)
2551 : : {
2552 : : struct tcp_sock *tp = tcp_sk(sk);
2553 : :
2554 [ - + ]: 6 : tcp_verify_left_out(tp);
2555 : :
2556 [ + - ]: 6 : if (!tcp_any_retrans_done(sk))
2557 : 6 : tp->retrans_stamp = 0;
2558 : :
2559 [ - + ]: 6 : if (flag & FLAG_ECE)
2560 : 0 : tcp_enter_cwr(sk);
2561 : :
2562 [ + - ]: 6 : if (inet_csk(sk)->icsk_ca_state != TCP_CA_CWR) {
2563 : 6 : tcp_try_keep_open(sk);
2564 : : }
2565 : 6 : }
2566 : :
2567 : 0 : static void tcp_mtup_probe_failed(struct sock *sk)
2568 : : {
2569 : : struct inet_connection_sock *icsk = inet_csk(sk);
2570 : :
2571 : 0 : icsk->icsk_mtup.search_high = icsk->icsk_mtup.probe_size - 1;
2572 : 0 : icsk->icsk_mtup.probe_size = 0;
2573 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPMTUPFAIL);
2574 : 0 : }
2575 : :
2576 : 0 : static void tcp_mtup_probe_success(struct sock *sk)
2577 : : {
2578 : : struct tcp_sock *tp = tcp_sk(sk);
2579 : : struct inet_connection_sock *icsk = inet_csk(sk);
2580 : :
2581 : : /* FIXME: breaks with very large cwnd */
2582 : 0 : tp->prior_ssthresh = tcp_current_ssthresh(sk);
2583 : 0 : tp->snd_cwnd = tp->snd_cwnd *
2584 : 0 : tcp_mss_to_mtu(sk, tp->mss_cache) /
2585 : 0 : icsk->icsk_mtup.probe_size;
2586 : 0 : tp->snd_cwnd_cnt = 0;
2587 : 0 : tp->snd_cwnd_stamp = tcp_jiffies32;
2588 : 0 : tp->snd_ssthresh = tcp_current_ssthresh(sk);
2589 : :
2590 : 0 : icsk->icsk_mtup.search_low = icsk->icsk_mtup.probe_size;
2591 : 0 : icsk->icsk_mtup.probe_size = 0;
2592 : 0 : tcp_sync_mss(sk, icsk->icsk_pmtu_cookie);
2593 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPMTUPSUCCESS);
2594 : 0 : }
2595 : :
2596 : : /* Do a simple retransmit without using the backoff mechanisms in
2597 : : * tcp_timer. This is used for path mtu discovery.
2598 : : * The socket is already locked here.
2599 : : */
2600 : 0 : void tcp_simple_retransmit(struct sock *sk)
2601 : : {
2602 : : const struct inet_connection_sock *icsk = inet_csk(sk);
2603 : : struct tcp_sock *tp = tcp_sk(sk);
2604 : : struct sk_buff *skb;
2605 : 0 : unsigned int mss = tcp_current_mss(sk);
2606 : :
2607 [ # # # # : 0 : skb_rbtree_walk(skb, &sk->tcp_rtx_queue) {
# # ]
2608 [ # # # # ]: 0 : if (tcp_skb_seglen(skb) > mss &&
2609 : 0 : !(TCP_SKB_CB(skb)->sacked & TCPCB_SACKED_ACKED)) {
2610 [ # # ]: 0 : if (TCP_SKB_CB(skb)->sacked & TCPCB_SACKED_RETRANS) {
2611 : 0 : TCP_SKB_CB(skb)->sacked &= ~TCPCB_SACKED_RETRANS;
2612 : 0 : tp->retrans_out -= tcp_skb_pcount(skb);
2613 : : }
2614 : 0 : tcp_skb_mark_lost_uncond_verify(tp, skb);
2615 : : }
2616 : : }
2617 : :
2618 : : tcp_clear_retrans_hints_partial(tp);
2619 : :
2620 [ # # ]: 0 : if (!tp->lost_out)
2621 : 0 : return;
2622 : :
2623 [ # # ]: 0 : if (tcp_is_reno(tp))
2624 : : tcp_limit_reno_sacked(tp);
2625 : :
2626 [ # # ]: 0 : tcp_verify_left_out(tp);
2627 : :
2628 : : /* Don't muck with the congestion window here.
2629 : : * Reason is that we do not increase amount of _data_
2630 : : * in network, but units changed and effective
2631 : : * cwnd/ssthresh really reduced now.
2632 : : */
2633 [ # # ]: 0 : if (icsk->icsk_ca_state != TCP_CA_Loss) {
2634 : 0 : tp->high_seq = tp->snd_nxt;
2635 : 0 : tp->snd_ssthresh = tcp_current_ssthresh(sk);
2636 : 0 : tp->prior_ssthresh = 0;
2637 : 0 : tp->undo_marker = 0;
2638 : : tcp_set_ca_state(sk, TCP_CA_Loss);
2639 : : }
2640 : 0 : tcp_xmit_retransmit_queue(sk);
2641 : : }
2642 : : EXPORT_SYMBOL(tcp_simple_retransmit);
2643 : :
2644 : 0 : void tcp_enter_recovery(struct sock *sk, bool ece_ack)
2645 : : {
2646 : : struct tcp_sock *tp = tcp_sk(sk);
2647 : : int mib_idx;
2648 : :
2649 [ # # ]: 0 : if (tcp_is_reno(tp))
2650 : : mib_idx = LINUX_MIB_TCPRENORECOVERY;
2651 : : else
2652 : : mib_idx = LINUX_MIB_TCPSACKRECOVERY;
2653 : :
2654 : 0 : NET_INC_STATS(sock_net(sk), mib_idx);
2655 : :
2656 : 0 : tp->prior_ssthresh = 0;
2657 : : tcp_init_undo(tp);
2658 : :
2659 [ # # ]: 0 : if (!tcp_in_cwnd_reduction(sk)) {
2660 [ # # ]: 0 : if (!ece_ack)
2661 : 0 : tp->prior_ssthresh = tcp_current_ssthresh(sk);
2662 : 0 : tcp_init_cwnd_reduction(sk);
2663 : : }
2664 : : tcp_set_ca_state(sk, TCP_CA_Recovery);
2665 : 0 : }
2666 : :
2667 : : /* Process an ACK in CA_Loss state. Move to CA_Open if lost data are
2668 : : * recovered or spurious. Otherwise retransmits more on partial ACKs.
2669 : : */
2670 : 16 : static void tcp_process_loss(struct sock *sk, int flag, int num_dupack,
2671 : : int *rexmit)
2672 : : {
2673 : : struct tcp_sock *tp = tcp_sk(sk);
2674 : 32 : bool recovered = !before(tp->snd_una, tp->high_seq);
2675 : :
2676 [ - + # # : 32 : if ((flag & FLAG_SND_UNA_ADVANCED || rcu_access_pointer(tp->fastopen_rsk)) &&
+ - ]
2677 : 16 : tcp_try_undo_loss(sk, false))
2678 : : return;
2679 : :
2680 [ + + ]: 16 : if (tp->frto) { /* F-RTO RFC5682 sec 3.1 (sack enhanced version). */
2681 : : /* Step 3.b. A timeout is spurious if not all data are
2682 : : * lost, i.e., never-retransmitted data are (s)acked.
2683 : : */
2684 [ + + - + ]: 10 : if ((flag & FLAG_ORIG_SACK_ACKED) &&
2685 : 2 : tcp_try_undo_loss(sk, true))
2686 : : return;
2687 : :
2688 [ + + ]: 12 : if (after(tp->snd_nxt, tp->high_seq)) {
2689 [ - + ]: 2 : if (flag & FLAG_DATA_SACKED || num_dupack)
2690 : 0 : tp->frto = 0; /* Step 3.a. loss was real */
2691 [ + - + + ]: 4 : } else if (flag & FLAG_SND_UNA_ADVANCED && !recovered) {
2692 : 2 : tp->high_seq = tp->snd_nxt;
2693 : : /* Step 2.b. Try send new data (but deferred until cwnd
2694 : : * is updated in tcp_ack()). Otherwise fall back to
2695 : : * the conventional recovery.
2696 : : */
2697 [ - + # # ]: 2 : if (!tcp_write_queue_empty(sk) &&
2698 : : after(tcp_wnd_end(tp), tp->snd_nxt)) {
2699 : 0 : *rexmit = REXMIT_NEW;
2700 : 0 : return;
2701 : : }
2702 : 2 : tp->frto = 0;
2703 : : }
2704 : : }
2705 : :
2706 [ + + ]: 14 : if (recovered) {
2707 : : /* F-RTO RFC5682 sec 3.1 step 2.a and 1st part of step 3.a */
2708 : 8 : tcp_try_undo_recovery(sk);
2709 : 8 : return;
2710 : : }
2711 [ + - ]: 6 : if (tcp_is_reno(tp)) {
2712 : : /* A Reno DUPACK means new data in F-RTO step 2.b above are
2713 : : * delivered. Lower inflight to clock out (re)tranmissions.
2714 : : */
2715 [ - + # # ]: 12 : if (after(tp->snd_nxt, tp->high_seq) && num_dupack)
2716 : 0 : tcp_add_reno_sack(sk, num_dupack);
2717 [ + - ]: 6 : else if (flag & FLAG_SND_UNA_ADVANCED)
2718 : : tcp_reset_reno_sack(tp);
2719 : : }
2720 : 6 : *rexmit = REXMIT_LOST;
2721 : : }
2722 : :
2723 : : /* Undo during fast recovery after partial ACK. */
2724 : 0 : static bool tcp_try_undo_partial(struct sock *sk, u32 prior_snd_una)
2725 : : {
2726 : : struct tcp_sock *tp = tcp_sk(sk);
2727 : :
2728 [ # # # # ]: 0 : if (tp->undo_marker && tcp_packet_delayed(tp)) {
2729 : : /* Plain luck! Hole if filled with delayed
2730 : : * packet, rather than with a retransmit. Check reordering.
2731 : : */
2732 : 0 : tcp_check_sack_reordering(sk, prior_snd_una, 1);
2733 : :
2734 : : /* We are getting evidence that the reordering degree is higher
2735 : : * than we realized. If there are no retransmits out then we
2736 : : * can undo. Otherwise we clock out new packets but do not
2737 : : * mark more packets lost or retransmit more.
2738 : : */
2739 [ # # ]: 0 : if (tp->retrans_out)
2740 : : return true;
2741 : :
2742 [ # # ]: 0 : if (!tcp_any_retrans_done(sk))
2743 : 0 : tp->retrans_stamp = 0;
2744 : :
2745 : : DBGUNDO(sk, "partial recovery");
2746 : 0 : tcp_undo_cwnd_reduction(sk, true);
2747 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPPARTIALUNDO);
2748 : 0 : tcp_try_keep_open(sk);
2749 : 0 : return true;
2750 : : }
2751 : : return false;
2752 : : }
2753 : :
2754 : 22 : static void tcp_identify_packet_loss(struct sock *sk, int *ack_flag)
2755 : : {
2756 : : struct tcp_sock *tp = tcp_sk(sk);
2757 : :
2758 [ + + ]: 22 : if (tcp_rtx_queue_empty(sk))
2759 : 22 : return;
2760 : :
2761 [ + - ]: 10 : if (unlikely(tcp_is_reno(tp))) {
2762 : 10 : tcp_newreno_mark_lost(sk, *ack_flag & FLAG_SND_UNA_ADVANCED);
2763 [ # # ]: 0 : } else if (tcp_is_rack(sk)) {
2764 : 0 : u32 prior_retrans = tp->retrans_out;
2765 : :
2766 : 0 : tcp_rack_mark_lost(sk);
2767 [ # # ]: 0 : if (prior_retrans > tp->retrans_out)
2768 : 0 : *ack_flag |= FLAG_LOST_RETRANS;
2769 : : }
2770 : : }
2771 : :
2772 : : static bool tcp_force_fast_retransmit(struct sock *sk)
2773 : : {
2774 : : struct tcp_sock *tp = tcp_sk(sk);
2775 : :
2776 : 0 : return after(tcp_highest_sack_seq(tp),
2777 : : tp->snd_una + tp->reordering * tp->mss_cache);
2778 : : }
2779 : :
2780 : : /* Process an event, which can update packets-in-flight not trivially.
2781 : : * Main goal of this function is to calculate new estimate for left_out,
2782 : : * taking into account both packets sitting in receiver's buffer and
2783 : : * packets lost by network.
2784 : : *
2785 : : * Besides that it updates the congestion state when packet loss or ECN
2786 : : * is detected. But it does not reduce the cwnd, it is done by the
2787 : : * congestion control later.
2788 : : *
2789 : : * It does _not_ decide what to send, it is made in function
2790 : : * tcp_xmit_retransmit_queue().
2791 : : */
2792 : 16 : static void tcp_fastretrans_alert(struct sock *sk, const u32 prior_snd_una,
2793 : : int num_dupack, int *ack_flag, int *rexmit)
2794 : : {
2795 : : struct inet_connection_sock *icsk = inet_csk(sk);
2796 : : struct tcp_sock *tp = tcp_sk(sk);
2797 : 16 : int fast_rexmit = 0, flag = *ack_flag;
2798 [ + - - + : 16 : bool do_lost = num_dupack || ((flag & FLAG_DATA_SACKED) &&
# # ]
2799 : : tcp_force_fast_retransmit(sk));
2800 : :
2801 [ + + - + ]: 16 : if (!tp->packets_out && tp->sacked_out)
2802 : 0 : tp->sacked_out = 0;
2803 : :
2804 : : /* Now state machine starts.
2805 : : * A. ECE, hence prohibit cwnd undoing, the reduction is required. */
2806 [ - + ]: 16 : if (flag & FLAG_ECE)
2807 : 0 : tp->prior_ssthresh = 0;
2808 : :
2809 : : /* B. In all the states check for reneging SACKs. */
2810 [ + - ]: 16 : if (tcp_check_sack_reneging(sk, flag))
2811 : : return;
2812 : :
2813 : : /* C. Check consistency of the current state. */
2814 [ - + ]: 16 : tcp_verify_left_out(tp);
2815 : :
2816 : : /* D. Check state exit conditions. State can be terminated
2817 : : * when high_seq is ACKed. */
2818 [ - + ]: 16 : if (icsk->icsk_ca_state == TCP_CA_Open) {
2819 [ # # ]: 0 : WARN_ON(tp->retrans_out != 0);
2820 : 0 : tp->retrans_stamp = 0;
2821 [ + + ]: 32 : } else if (!before(tp->snd_una, tp->high_seq)) {
2822 [ - - + ]: 10 : switch (icsk->icsk_ca_state) {
2823 : : case TCP_CA_CWR:
2824 : : /* CWR is to be held something *above* high_seq
2825 : : * is ACKed for CWR bit to reach receiver. */
2826 [ # # ]: 0 : if (tp->snd_una != tp->high_seq) {
2827 : 0 : tcp_end_cwnd_reduction(sk);
2828 : : tcp_set_ca_state(sk, TCP_CA_Open);
2829 : : }
2830 : : break;
2831 : :
2832 : : case TCP_CA_Recovery:
2833 [ # # ]: 0 : if (tcp_is_reno(tp))
2834 : : tcp_reset_reno_sack(tp);
2835 [ # # ]: 0 : if (tcp_try_undo_recovery(sk))
2836 : : return;
2837 : 0 : tcp_end_cwnd_reduction(sk);
2838 : 0 : break;
2839 : : }
2840 : : }
2841 : :
2842 : : /* E. Process state. */
2843 [ - + - ]: 16 : switch (icsk->icsk_ca_state) {
2844 : : case TCP_CA_Recovery:
2845 [ # # ]: 0 : if (!(flag & FLAG_SND_UNA_ADVANCED)) {
2846 [ # # ]: 0 : if (tcp_is_reno(tp))
2847 : 0 : tcp_add_reno_sack(sk, num_dupack);
2848 : : } else {
2849 [ # # ]: 0 : if (tcp_try_undo_partial(sk, prior_snd_una))
2850 : : return;
2851 : : /* Partial ACK arrived. Force fast retransmit. */
2852 [ # # # # ]: 0 : do_lost = tcp_is_reno(tp) ||
2853 : : tcp_force_fast_retransmit(sk);
2854 : : }
2855 [ # # ]: 0 : if (tcp_try_undo_dsack(sk)) {
2856 : 0 : tcp_try_keep_open(sk);
2857 : 0 : return;
2858 : : }
2859 : 0 : tcp_identify_packet_loss(sk, ack_flag);
2860 : 0 : break;
2861 : : case TCP_CA_Loss:
2862 : 16 : tcp_process_loss(sk, flag, num_dupack, rexmit);
2863 : 16 : tcp_identify_packet_loss(sk, ack_flag);
2864 [ + + - + ]: 26 : if (!(icsk->icsk_ca_state == TCP_CA_Open ||
2865 : 10 : (*ack_flag & FLAG_LOST_RETRANS)))
2866 : : return;
2867 : : /* Change state if cwnd is undone or retransmits are lost */
2868 : : /* fall through */
2869 : : default:
2870 [ + - ]: 6 : if (tcp_is_reno(tp)) {
2871 [ + - ]: 6 : if (flag & FLAG_SND_UNA_ADVANCED)
2872 : : tcp_reset_reno_sack(tp);
2873 : 6 : tcp_add_reno_sack(sk, num_dupack);
2874 : : }
2875 : :
2876 [ + - ]: 6 : if (icsk->icsk_ca_state <= TCP_CA_Disorder)
2877 : 6 : tcp_try_undo_dsack(sk);
2878 : :
2879 : 6 : tcp_identify_packet_loss(sk, ack_flag);
2880 [ + - ]: 6 : if (!tcp_time_to_recover(sk, flag)) {
2881 : 6 : tcp_try_to_open(sk, flag);
2882 : 6 : return;
2883 : : }
2884 : :
2885 : : /* MTU probe failure: don't reduce cwnd */
2886 [ # # # # ]: 0 : if (icsk->icsk_ca_state < TCP_CA_CWR &&
2887 [ # # ]: 0 : icsk->icsk_mtup.probe_size &&
2888 : 0 : tp->snd_una == tp->mtu_probe.probe_seq_start) {
2889 : 0 : tcp_mtup_probe_failed(sk);
2890 : : /* Restores the reduction we did in tcp_mtup_probe() */
2891 : 0 : tp->snd_cwnd++;
2892 : 0 : tcp_simple_retransmit(sk);
2893 : 0 : return;
2894 : : }
2895 : :
2896 : : /* Otherwise enter Recovery state */
2897 : 0 : tcp_enter_recovery(sk, (flag & FLAG_ECE));
2898 : : fast_rexmit = 1;
2899 : : }
2900 : :
2901 [ # # # # ]: 0 : if (!tcp_is_rack(sk) && do_lost)
2902 : 0 : tcp_update_scoreboard(sk, fast_rexmit);
2903 : 0 : *rexmit = REXMIT_LOST;
2904 : : }
2905 : :
2906 : 496 : static void tcp_update_rtt_min(struct sock *sk, u32 rtt_us, const int flag)
2907 : : {
2908 : 496 : u32 wlen = sock_net(sk)->ipv4.sysctl_tcp_min_rtt_wlen * HZ;
2909 : : struct tcp_sock *tp = tcp_sk(sk);
2910 : :
2911 [ + + + + ]: 552 : if ((flag & FLAG_ACK_MAYBE_DELAYED) && rtt_us > tcp_min_rtt(tp)) {
2912 : : /* If the remote keeps returning delayed ACKs, eventually
2913 : : * the min filter would pick it up and overestimate the
2914 : : * prop. delay when it expires. Skip suspected delayed ACKs.
2915 : : */
2916 : 496 : return;
2917 : : }
2918 [ - + ]: 444 : minmax_running_min(&tp->rtt_min, wlen, tcp_jiffies32,
2919 : : rtt_us ? : jiffies_to_usecs(1));
2920 : : }
2921 : :
2922 : 596 : static bool tcp_ack_update_rtt(struct sock *sk, const int flag,
2923 : : long seq_rtt_us, long sack_rtt_us,
2924 : : long ca_rtt_us, struct rate_sample *rs)
2925 : : {
2926 : : const struct tcp_sock *tp = tcp_sk(sk);
2927 : :
2928 : : /* Prefer RTT measured from ACK's timing to TS-ECR. This is because
2929 : : * broken middle-boxes or peers may corrupt TS-ECR fields. But
2930 : : * Karn's algorithm forbids taking RTT if some retransmitted data
2931 : : * is acked (RFC6298).
2932 : : */
2933 [ + + ]: 596 : if (seq_rtt_us < 0)
2934 : : seq_rtt_us = sack_rtt_us;
2935 : :
2936 : : /* RTTM Rule: A TSecr value received in a segment is used to
2937 : : * update the averaged RTT measurement only if the segment
2938 : : * acknowledges some new data, i.e., only if it advances the
2939 : : * left edge of the send window.
2940 : : * See draft-ietf-tcplw-high-performance-00, section 3.3.
2941 : : */
2942 [ + + - + : 596 : if (seq_rtt_us < 0 && tp->rx_opt.saw_tstamp && tp->rx_opt.rcv_tsecr &&
# # # # ]
2943 : 0 : flag & FLAG_ACKED) {
2944 : 0 : u32 delta = tcp_time_stamp(tp) - tp->rx_opt.rcv_tsecr;
2945 : :
2946 [ # # ]: 0 : if (likely(delta < INT_MAX / (USEC_PER_SEC / TCP_TS_HZ))) {
2947 [ # # ]: 0 : if (!delta)
2948 : : delta = 1;
2949 : 0 : seq_rtt_us = delta * (USEC_PER_SEC / TCP_TS_HZ);
2950 : : ca_rtt_us = seq_rtt_us;
2951 : : }
2952 : : }
2953 : 596 : rs->rtt_us = ca_rtt_us; /* RTT of last (S)ACKed packet (or -1) */
2954 [ + + ]: 596 : if (seq_rtt_us < 0)
2955 : : return false;
2956 : :
2957 : : /* ca_rtt_us >= 0 is counting on the invariant that ca_rtt_us is
2958 : : * always taken together with ACK, SACK, or TS-opts. Any negative
2959 : : * values will be skipped with the seq_rtt_us < 0 check above.
2960 : : */
2961 : 496 : tcp_update_rtt_min(sk, ca_rtt_us, flag);
2962 : 496 : tcp_rtt_estimator(sk, seq_rtt_us);
2963 : : tcp_set_rto(sk);
2964 : :
2965 : : /* RFC6298: only reset backoff on valid RTT measurement. */
2966 : 496 : inet_csk(sk)->icsk_backoff = 0;
2967 : 496 : return true;
2968 : : }
2969 : :
2970 : : /* Compute time elapsed between (last) SYNACK and the ACK completing 3WHS. */
2971 : 0 : void tcp_synack_rtt_meas(struct sock *sk, struct request_sock *req)
2972 : : {
2973 : : struct rate_sample rs;
2974 : : long rtt_us = -1L;
2975 : :
2976 [ # # # # : 0 : if (req && !req->num_retrans && tcp_rsk(req)->snt_synack)
# # ]
2977 : 0 : rtt_us = tcp_stamp_us_delta(tcp_clock_us(), tcp_rsk(req)->snt_synack);
2978 : :
2979 : 0 : tcp_ack_update_rtt(sk, FLAG_SYN_ACKED, rtt_us, -1L, rtt_us, &rs);
2980 : 0 : }
2981 : :
2982 : :
2983 : : static void tcp_cong_avoid(struct sock *sk, u32 ack, u32 acked)
2984 : : {
2985 : : const struct inet_connection_sock *icsk = inet_csk(sk);
2986 : :
2987 : 428 : icsk->icsk_ca_ops->cong_avoid(sk, ack, acked);
2988 : 428 : tcp_sk(sk)->snd_cwnd_stamp = tcp_jiffies32;
2989 : : }
2990 : :
2991 : : /* Restart timer after forward progress on connection.
2992 : : * RFC2988 recommends to restart timer to now+rto.
2993 : : */
2994 : 854 : void tcp_rearm_rto(struct sock *sk)
2995 : : {
2996 : : const struct inet_connection_sock *icsk = inet_csk(sk);
2997 : : struct tcp_sock *tp = tcp_sk(sk);
2998 : :
2999 : : /* If the retrans timer is currently being used by Fast Open
3000 : : * for SYN-ACK retrans purpose, stay put.
3001 : : */
3002 [ + - ]: 854 : if (rcu_access_pointer(tp->fastopen_rsk))
3003 : 854 : return;
3004 : :
3005 [ + + ]: 854 : if (!tp->packets_out) {
3006 : : inet_csk_clear_xmit_timer(sk, ICSK_TIME_RETRANS);
3007 : : } else {
3008 : 428 : u32 rto = inet_csk(sk)->icsk_rto;
3009 : : /* Offset the time elapsed after installing regular RTO */
3010 [ - + ]: 428 : if (icsk->icsk_pending == ICSK_TIME_REO_TIMEOUT ||
3011 : : icsk->icsk_pending == ICSK_TIME_LOSS_PROBE) {
3012 : 0 : s64 delta_us = tcp_rto_delta_us(sk);
3013 : : /* delta_us may not be positive if the socket is locked
3014 : : * when the retrans timer fires and is rescheduled.
3015 : : */
3016 : 0 : rto = usecs_to_jiffies(max_t(int, delta_us, 1));
3017 : : }
3018 : 428 : tcp_reset_xmit_timer(sk, ICSK_TIME_RETRANS, rto,
3019 : : TCP_RTO_MAX, tcp_rtx_queue_head(sk));
3020 : : }
3021 : : }
3022 : :
3023 : : /* Try to schedule a loss probe; if that doesn't work, then schedule an RTO. */
3024 : 500 : static void tcp_set_xmit_timer(struct sock *sk)
3025 : : {
3026 [ + - ]: 500 : if (!tcp_schedule_loss_probe(sk, true))
3027 : 500 : tcp_rearm_rto(sk);
3028 : 500 : }
3029 : :
3030 : : /* If we get here, the whole TSO packet has not been acked. */
3031 : 0 : static u32 tcp_tso_acked(struct sock *sk, struct sk_buff *skb)
3032 : : {
3033 : : struct tcp_sock *tp = tcp_sk(sk);
3034 : : u32 packets_acked;
3035 : :
3036 [ # # ]: 0 : BUG_ON(!after(TCP_SKB_CB(skb)->end_seq, tp->snd_una));
3037 : :
3038 : 0 : packets_acked = tcp_skb_pcount(skb);
3039 [ # # ]: 0 : if (tcp_trim_head(sk, skb, tp->snd_una - TCP_SKB_CB(skb)->seq))
3040 : : return 0;
3041 : 0 : packets_acked -= tcp_skb_pcount(skb);
3042 : :
3043 [ # # ]: 0 : if (packets_acked) {
3044 [ # # ]: 0 : BUG_ON(tcp_skb_pcount(skb) == 0);
3045 [ # # ]: 0 : BUG_ON(!before(TCP_SKB_CB(skb)->seq, TCP_SKB_CB(skb)->end_seq));
3046 : : }
3047 : :
3048 : : return packets_acked;
3049 : : }
3050 : :
3051 : 672 : static void tcp_ack_tstamp(struct sock *sk, struct sk_buff *skb,
3052 : : u32 prior_snd_una)
3053 : : {
3054 : : const struct skb_shared_info *shinfo;
3055 : :
3056 : : /* Avoid cache line misses to get skb_shinfo() and shinfo->tx_flags */
3057 [ - + ]: 672 : if (likely(!TCP_SKB_CB(skb)->txstamp_ack))
3058 : 672 : return;
3059 : :
3060 : : shinfo = skb_shinfo(skb);
3061 [ # # # # ]: 0 : if (!before(shinfo->tskey, prior_snd_una) &&
3062 : 0 : before(shinfo->tskey, tcp_sk(sk)->snd_una)) {
3063 : 0 : tcp_skb_tsorted_save(skb) {
3064 : 0 : __skb_tstamp_tx(skb, NULL, sk, SCM_TSTAMP_ACK);
3065 : 0 : } tcp_skb_tsorted_restore(skb);
3066 : : }
3067 : : }
3068 : :
3069 : : /* Remove acknowledged frames from the retransmission queue. If our packet
3070 : : * is before the ack sequence we can discard it as it's confirmed to have
3071 : : * arrived at the other end.
3072 : : */
3073 : 596 : static int tcp_clean_rtx_queue(struct sock *sk, u32 prior_fack,
3074 : : u32 prior_snd_una,
3075 : : struct tcp_sacktag_state *sack)
3076 : : {
3077 : : const struct inet_connection_sock *icsk = inet_csk(sk);
3078 : : u64 first_ackt, last_ackt;
3079 : : struct tcp_sock *tp = tcp_sk(sk);
3080 : 596 : u32 prior_sacked = tp->sacked_out;
3081 : 596 : u32 reord = tp->snd_nxt; /* lowest acked un-retx un-sacked seq */
3082 : : struct sk_buff *skb, *next;
3083 : : bool fully_acked = true;
3084 : : long sack_rtt_us = -1L;
3085 : : long seq_rtt_us = -1L;
3086 : : long ca_rtt_us = -1L;
3087 : : u32 pkts_acked = 0;
3088 : : u32 last_in_flight = 0;
3089 : : bool rtt_update;
3090 : : int flag = 0;
3091 : :
3092 : : first_ackt = 0;
3093 : :
3094 [ + - + + ]: 1694 : for (skb = skb_rb_first(&sk->tcp_rtx_queue); skb; skb = next) {
3095 : : struct tcp_skb_cb *scb = TCP_SKB_CB(skb);
3096 : 672 : const u32 start_seq = scb->seq;
3097 : 672 : u8 sacked = scb->sacked;
3098 : : u32 acked_pcount;
3099 : :
3100 : 672 : tcp_ack_tstamp(sk, skb, prior_snd_una);
3101 : :
3102 : : /* Determine how many packets and what bytes were acked, tso and else */
3103 [ + + ]: 1344 : if (after(scb->end_seq, tp->snd_una)) {
3104 [ - + # # ]: 170 : if (tcp_skb_pcount(skb) == 1 ||
3105 : 0 : !after(tp->snd_una, scb->seq))
3106 : : break;
3107 : :
3108 : 0 : acked_pcount = tcp_tso_acked(sk, skb);
3109 [ # # ]: 0 : if (!acked_pcount)
3110 : : break;
3111 : : fully_acked = false;
3112 : : } else {
3113 : 502 : acked_pcount = tcp_skb_pcount(skb);
3114 : : }
3115 : :
3116 [ + + ]: 502 : if (unlikely(sacked & TCPCB_RETRANS)) {
3117 [ + - ]: 4 : if (sacked & TCPCB_SACKED_RETRANS)
3118 : 4 : tp->retrans_out -= acked_pcount;
3119 : 4 : flag |= FLAG_RETRANS_DATA_ACKED;
3120 [ + - ]: 498 : } else if (!(sacked & TCPCB_SACKED_ACKED)) {
3121 : : last_ackt = tcp_skb_timestamp_us(skb);
3122 [ - + # # ]: 498 : WARN_ON_ONCE(last_ackt == 0);
3123 [ + + ]: 498 : if (!first_ackt)
3124 : : first_ackt = last_ackt;
3125 : :
3126 : 498 : last_in_flight = TCP_SKB_CB(skb)->tx.in_flight;
3127 [ + + ]: 498 : if (before(start_seq, reord))
3128 : : reord = start_seq;
3129 [ + + ]: 996 : if (!after(scb->end_seq, tp->high_seq))
3130 : 204 : flag |= FLAG_ORIG_SACK_ACKED;
3131 : : }
3132 : :
3133 [ - + ]: 502 : if (sacked & TCPCB_SACKED_ACKED) {
3134 : 0 : tp->sacked_out -= acked_pcount;
3135 [ - + ]: 502 : } else if (tcp_is_sack(tp)) {
3136 : 0 : tp->delivered += acked_pcount;
3137 [ # # ]: 0 : if (!tcp_skb_spurious_retrans(tp, skb))
3138 : 0 : tcp_rack_advance(tp, sacked, scb->end_seq,
3139 : : tcp_skb_timestamp_us(skb));
3140 : : }
3141 [ + + ]: 502 : if (sacked & TCPCB_LOST)
3142 : 6 : tp->lost_out -= acked_pcount;
3143 : :
3144 : 502 : tp->packets_out -= acked_pcount;
3145 : 502 : pkts_acked += acked_pcount;
3146 : 502 : tcp_rate_skb_delivered(sk, skb, sack->rate);
3147 : :
3148 : : /* Initial outgoing SYN's get put onto the write_queue
3149 : : * just like anything else we transmit. It is not
3150 : : * true data, and if we misinform our callers that
3151 : : * this ACK acks real data, we will erroneously exit
3152 : : * connection startup slow start one packet too
3153 : : * quickly. This is severely frowned upon behavior.
3154 : : */
3155 [ + + ]: 502 : if (likely(!(scb->tcp_flags & TCPHDR_SYN))) {
3156 : 430 : flag |= FLAG_DATA_ACKED;
3157 : : } else {
3158 : 72 : flag |= FLAG_SYN_ACKED;
3159 : 72 : tp->retrans_stamp = 0;
3160 : : }
3161 : :
3162 [ + - ]: 502 : if (!fully_acked)
3163 : : break;
3164 : :
3165 [ + + ]: 502 : next = skb_rb_next(skb);
3166 [ + + ]: 502 : if (unlikely(skb == tp->retransmit_skb_hint))
3167 : 2 : tp->retransmit_skb_hint = NULL;
3168 [ - + ]: 502 : if (unlikely(skb == tp->lost_skb_hint))
3169 : 0 : tp->lost_skb_hint = NULL;
3170 : : tcp_highest_sack_replace(sk, skb, next);
3171 : 502 : tcp_rtx_queue_unlink_and_free(skb, sk);
3172 : : }
3173 : :
3174 [ + + ]: 596 : if (!skb)
3175 : 426 : tcp_chrono_stop(sk, TCP_CHRONO_BUSY);
3176 : :
3177 [ + - ]: 1192 : if (likely(between(tp->snd_up, prior_snd_una, tp->snd_una)))
3178 : 596 : tp->snd_up = tp->snd_una;
3179 : :
3180 [ + + - + ]: 596 : if (skb && (TCP_SKB_CB(skb)->sacked & TCPCB_SACKED_ACKED))
3181 : 0 : flag |= FLAG_SACK_RENEGING;
3182 : :
3183 [ + + + - ]: 596 : if (likely(first_ackt) && !(flag & FLAG_RETRANS_DATA_ACKED)) {
3184 : 992 : seq_rtt_us = tcp_stamp_us_delta(tp->tcp_mstamp, first_ackt);
3185 : 496 : ca_rtt_us = tcp_stamp_us_delta(tp->tcp_mstamp, last_ackt);
3186 : :
3187 [ + + + - ]: 496 : if (pkts_acked == 1 && last_in_flight < tp->mss_cache &&
3188 [ + - + - : 988 : last_in_flight && !prior_sacked && fully_acked &&
+ + ]
3189 [ + - ]: 550 : sack->rate->prior_delivered + 1 == tp->delivered &&
3190 : 56 : !(flag & (FLAG_CA_ALERT | FLAG_SYN_ACKED))) {
3191 : : /* Conservatively mark a delayed ACK. It's typically
3192 : : * from a lone runt packet over the round trip to
3193 : : * a receiver w/o out-of-order or CE events.
3194 : : */
3195 : 56 : flag |= FLAG_ACK_MAYBE_DELAYED;
3196 : : }
3197 : : }
3198 [ - + ]: 596 : if (sack->first_sackt) {
3199 : 0 : sack_rtt_us = tcp_stamp_us_delta(tp->tcp_mstamp, sack->first_sackt);
3200 : 0 : ca_rtt_us = tcp_stamp_us_delta(tp->tcp_mstamp, sack->last_sackt);
3201 : : }
3202 : 596 : rtt_update = tcp_ack_update_rtt(sk, flag, seq_rtt_us, sack_rtt_us,
3203 : : ca_rtt_us, sack->rate);
3204 : :
3205 [ + + ]: 596 : if (flag & FLAG_ACKED) {
3206 : 500 : flag |= FLAG_SET_XMIT_TIMER; /* set TLP or RTO timer */
3207 [ - + # # ]: 500 : if (unlikely(icsk->icsk_mtup.probe_size &&
3208 : : !after(tp->mtu_probe.probe_seq_end, tp->snd_una))) {
3209 : 0 : tcp_mtup_probe_success(sk);
3210 : : }
3211 : :
3212 [ + - ]: 500 : if (tcp_is_reno(tp)) {
3213 : 500 : tcp_remove_reno_sacks(sk, pkts_acked);
3214 : :
3215 : : /* If any of the cumulatively ACKed segments was
3216 : : * retransmitted, non-SACK case cannot confirm that
3217 : : * progress was due to original transmission due to
3218 : : * lack of TCPCB_SACKED_ACKED bits even if some of
3219 : : * the packets may have been never retransmitted.
3220 : : */
3221 [ + + ]: 500 : if (flag & FLAG_RETRANS_DATA_ACKED)
3222 : 4 : flag &= ~FLAG_ORIG_SACK_ACKED;
3223 : : } else {
3224 : : int delta;
3225 : :
3226 : : /* Non-retransmitted hole got filled? That's reordering */
3227 [ # # ]: 0 : if (before(reord, prior_fack))
3228 : 0 : tcp_check_sack_reordering(sk, reord, 0);
3229 : :
3230 : 0 : delta = prior_sacked - tp->sacked_out;
3231 : 0 : tp->lost_cnt_hint -= min(tp->lost_cnt_hint, delta);
3232 : : }
3233 [ - + # # : 96 : } else if (skb && rtt_update && sack_rtt_us >= 0 &&
# # ]
3234 : 0 : sack_rtt_us > tcp_stamp_us_delta(tp->tcp_mstamp,
3235 : : tcp_skb_timestamp_us(skb))) {
3236 : : /* Do not re-arm RTO if the sack RTT is measured from data sent
3237 : : * after when the head was last (re)transmitted. Otherwise the
3238 : : * timeout may continue to extend in loss recovery.
3239 : : */
3240 : 0 : flag |= FLAG_SET_XMIT_TIMER; /* set TLP or RTO timer */
3241 : : }
3242 : :
3243 [ + - ]: 596 : if (icsk->icsk_ca_ops->pkts_acked) {
3244 : 1192 : struct ack_sample sample = { .pkts_acked = pkts_acked,
3245 : 596 : .rtt_us = sack->rate->rtt_us,
3246 : : .in_flight = last_in_flight };
3247 : :
3248 : 596 : icsk->icsk_ca_ops->pkts_acked(sk, &sample);
3249 : : }
3250 : :
3251 : : #if FASTRETRANS_DEBUG > 0
3252 [ - + ]: 596 : WARN_ON((int)tp->sacked_out < 0);
3253 [ - + ]: 596 : WARN_ON((int)tp->lost_out < 0);
3254 [ - + ]: 596 : WARN_ON((int)tp->retrans_out < 0);
3255 [ + + - + ]: 1022 : if (!tp->packets_out && tcp_is_sack(tp)) {
3256 : : icsk = inet_csk(sk);
3257 [ # # ]: 0 : if (tp->lost_out) {
3258 : : pr_debug("Leak l=%u %d\n",
3259 : : tp->lost_out, icsk->icsk_ca_state);
3260 : 0 : tp->lost_out = 0;
3261 : : }
3262 [ # # ]: 0 : if (tp->sacked_out) {
3263 : : pr_debug("Leak s=%u %d\n",
3264 : : tp->sacked_out, icsk->icsk_ca_state);
3265 : 0 : tp->sacked_out = 0;
3266 : : }
3267 [ # # ]: 0 : if (tp->retrans_out) {
3268 : : pr_debug("Leak r=%u %d\n",
3269 : : tp->retrans_out, icsk->icsk_ca_state);
3270 : 0 : tp->retrans_out = 0;
3271 : : }
3272 : : }
3273 : : #endif
3274 : 596 : return flag;
3275 : : }
3276 : :
3277 : 774 : static void tcp_ack_probe(struct sock *sk)
3278 : : {
3279 : : struct inet_connection_sock *icsk = inet_csk(sk);
3280 : : struct sk_buff *head = tcp_send_head(sk);
3281 : : const struct tcp_sock *tp = tcp_sk(sk);
3282 : :
3283 : : /* Was it a usable window open? */
3284 [ - + ]: 774 : if (!head)
3285 : 774 : return;
3286 [ # # ]: 0 : if (!after(TCP_SKB_CB(head)->end_seq, tcp_wnd_end(tp))) {
3287 : 0 : icsk->icsk_backoff = 0;
3288 : : inet_csk_clear_xmit_timer(sk, ICSK_TIME_PROBE0);
3289 : : /* Socket must be waked up by subsequent tcp_data_snd_check().
3290 : : * This function is not for random using!
3291 : : */
3292 : : } else {
3293 : : unsigned long when = tcp_probe0_when(sk, TCP_RTO_MAX);
3294 : :
3295 : 0 : tcp_reset_xmit_timer(sk, ICSK_TIME_PROBE0,
3296 : : when, TCP_RTO_MAX, NULL);
3297 : : }
3298 : : }
3299 : :
3300 : : static inline bool tcp_ack_is_dubious(const struct sock *sk, const int flag)
3301 : : {
3302 [ + - + - : 1192 : return !(flag & FLAG_NOT_DUP) || (flag & FLAG_CA_ALERT) ||
+ + ]
3303 : 596 : inet_csk(sk)->icsk_ca_state != TCP_CA_Open;
3304 : : }
3305 : :
3306 : : /* Decide wheather to run the increase function of congestion control. */
3307 : : static inline bool tcp_may_raise_cwnd(const struct sock *sk, const int flag)
3308 : : {
3309 : : /* If reordering is high then always grow cwnd whenever data is
3310 : : * delivered regardless of its ordering. Otherwise stay conservative
3311 : : * and only grow cwnd on in-order delivery (RFC5681). A stretched ACK w/
3312 : : * new SACK or ECE mark may first advance cwnd here and later reduce
3313 : : * cwnd in tcp_fastretrans_alert() based on more states.
3314 : : */
3315 [ - + ]: 1192 : if (tcp_sk(sk)->reordering > sock_net(sk)->ipv4.sysctl_tcp_reordering)
3316 : 0 : return flag & FLAG_FORWARD_PROGRESS;
3317 : :
3318 : 596 : return flag & FLAG_DATA_ACKED;
3319 : : }
3320 : :
3321 : : /* The "ultimate" congestion control function that aims to replace the rigid
3322 : : * cwnd increase and decrease control (tcp_cong_avoid,tcp_*cwnd_reduction).
3323 : : * It's called toward the end of processing an ACK with precise rate
3324 : : * information. All transmission or retransmission are delayed afterwards.
3325 : : */
3326 : 596 : static void tcp_cong_control(struct sock *sk, u32 ack, u32 acked_sacked,
3327 : : int flag, const struct rate_sample *rs)
3328 : : {
3329 : : const struct inet_connection_sock *icsk = inet_csk(sk);
3330 : :
3331 [ - + ]: 596 : if (icsk->icsk_ca_ops->cong_control) {
3332 : 0 : icsk->icsk_ca_ops->cong_control(sk, rs);
3333 : 596 : return;
3334 : : }
3335 : :
3336 [ - + ]: 596 : if (tcp_in_cwnd_reduction(sk)) {
3337 : : /* Reduce cwnd if state mandates */
3338 : 0 : tcp_cwnd_reduction(sk, acked_sacked, flag);
3339 [ + + ]: 596 : } else if (tcp_may_raise_cwnd(sk, flag)) {
3340 : : /* Advance cwnd if state allows */
3341 : : tcp_cong_avoid(sk, ack, acked_sacked);
3342 : : }
3343 : 596 : tcp_update_pacing_rate(sk);
3344 : : }
3345 : :
3346 : : /* Check that window update is acceptable.
3347 : : * The function assumes that snd_una<=ack<=snd_next.
3348 : : */
3349 : : static inline bool tcp_may_update_window(const struct tcp_sock *tp,
3350 : : const u32 ack, const u32 ack_seq,
3351 : : const u32 nwin)
3352 : : {
3353 [ # # + + ]: 2848 : return after(ack, tp->snd_una) ||
3354 [ # # # # : 1004 : after(ack_seq, tp->snd_wl1) ||
+ + + + ]
3355 [ # # + - ]: 10 : (ack_seq == tp->snd_wl1 && nwin > tp->snd_wnd);
3356 : : }
3357 : :
3358 : : /* If we update tp->snd_una, also update tp->bytes_acked */
3359 : : static void tcp_snd_una_update(struct tcp_sock *tp, u32 ack)
3360 : : {
3361 : 1370 : u32 delta = ack - tp->snd_una;
3362 : :
3363 : : sock_owned_by_me((struct sock *)tp);
3364 : 1370 : tp->bytes_acked += delta;
3365 : 1370 : tp->snd_una = ack;
3366 : : }
3367 : :
3368 : : /* If we update tp->rcv_nxt, also update tp->bytes_received */
3369 : : static void tcp_rcv_nxt_update(struct tcp_sock *tp, u32 seq)
3370 : : {
3371 : 6588 : u32 delta = seq - tp->rcv_nxt;
3372 : :
3373 : : sock_owned_by_me((struct sock *)tp);
3374 : 6588 : tp->bytes_received += delta;
3375 : : WRITE_ONCE(tp->rcv_nxt, seq);
3376 : : }
3377 : :
3378 : : /* Update our send window.
3379 : : *
3380 : : * Window update algorithm, described in RFC793/RFC1122 (used in linux-2.2
3381 : : * and in FreeBSD. NetBSD's one is even worse.) is wrong.
3382 : : */
3383 : 992 : static int tcp_ack_update_window(struct sock *sk, const struct sk_buff *skb, u32 ack,
3384 : : u32 ack_seq)
3385 : : {
3386 : : struct tcp_sock *tp = tcp_sk(sk);
3387 : : int flag = 0;
3388 : 992 : u32 nwin = ntohs(tcp_hdr(skb)->window);
3389 : :
3390 [ + + ]: 992 : if (likely(!tcp_hdr(skb)->syn))
3391 : 920 : nwin <<= tp->rx_opt.snd_wscale;
3392 : :
3393 [ + + ]: 992 : if (tcp_may_update_window(tp, ack, ack_seq, nwin)) {
3394 : : flag |= FLAG_WIN_UPDATE;
3395 : : tcp_update_wl(tp, ack_seq);
3396 : :
3397 [ + + ]: 980 : if (tp->snd_wnd != nwin) {
3398 : 72 : tp->snd_wnd = nwin;
3399 : :
3400 : : /* Note, it is the only place, where
3401 : : * fast path is recovered for sending TCP.
3402 : : */
3403 : 72 : tp->pred_flags = 0;
3404 : 72 : tcp_fast_path_check(sk);
3405 : :
3406 [ - + ]: 72 : if (!tcp_write_queue_empty(sk))
3407 : 0 : tcp_slow_start_after_idle_check(sk);
3408 : :
3409 [ + - ]: 72 : if (nwin > tp->max_window) {
3410 : 72 : tp->max_window = nwin;
3411 : 72 : tcp_sync_mss(sk, inet_csk(sk)->icsk_pmtu_cookie);
3412 : : }
3413 : : }
3414 : : }
3415 : :
3416 : : tcp_snd_una_update(tp, ack);
3417 : :
3418 : 992 : return flag;
3419 : : }
3420 : :
3421 : 0 : static bool __tcp_oow_rate_limited(struct net *net, int mib_idx,
3422 : : u32 *last_oow_ack_time)
3423 : : {
3424 [ # # ]: 0 : if (*last_oow_ack_time) {
3425 : 0 : s32 elapsed = (s32)(tcp_jiffies32 - *last_oow_ack_time);
3426 : :
3427 [ # # # # ]: 0 : if (0 <= elapsed && elapsed < net->ipv4.sysctl_tcp_invalid_ratelimit) {
3428 : 0 : NET_INC_STATS(net, mib_idx);
3429 : 0 : return true; /* rate-limited: don't send yet! */
3430 : : }
3431 : : }
3432 : :
3433 : 0 : *last_oow_ack_time = tcp_jiffies32;
3434 : :
3435 : 0 : return false; /* not rate-limited: go ahead, send dupack now! */
3436 : : }
3437 : :
3438 : : /* Return true if we're currently rate-limiting out-of-window ACKs and
3439 : : * thus shouldn't send a dupack right now. We rate-limit dupacks in
3440 : : * response to out-of-window SYNs or ACKs to mitigate ACK loops or DoS
3441 : : * attacks that send repeated SYNs or ACKs for the same connection. To
3442 : : * do this, we do not send a duplicate SYNACK or ACK if the remote
3443 : : * endpoint is sending out-of-window SYNs or pure ACKs at a high rate.
3444 : : */
3445 : 0 : bool tcp_oow_rate_limited(struct net *net, const struct sk_buff *skb,
3446 : : int mib_idx, u32 *last_oow_ack_time)
3447 : : {
3448 : : /* Data packets without SYNs are not likely part of an ACK loop. */
3449 [ # # # # ]: 0 : if ((TCP_SKB_CB(skb)->seq != TCP_SKB_CB(skb)->end_seq) &&
3450 : 0 : !tcp_hdr(skb)->syn)
3451 : : return false;
3452 : :
3453 : 0 : return __tcp_oow_rate_limited(net, mib_idx, last_oow_ack_time);
3454 : : }
3455 : :
3456 : : /* RFC 5961 7 [ACK Throttling] */
3457 : 0 : static void tcp_send_challenge_ack(struct sock *sk, const struct sk_buff *skb)
3458 : : {
3459 : : /* unprotected vars, we dont care of overwrites */
3460 : : static u32 challenge_timestamp;
3461 : : static unsigned int challenge_count;
3462 : : struct tcp_sock *tp = tcp_sk(sk);
3463 : : struct net *net = sock_net(sk);
3464 : : u32 count, now;
3465 : :
3466 : : /* First check our per-socket dupack rate limit. */
3467 [ # # ]: 0 : if (__tcp_oow_rate_limited(net,
3468 : : LINUX_MIB_TCPACKSKIPPEDCHALLENGE,
3469 : : &tp->last_oow_ack_time))
3470 : 0 : return;
3471 : :
3472 : : /* Then check host-wide RFC 5961 rate limit. */
3473 : 0 : now = jiffies / HZ;
3474 [ # # ]: 0 : if (now != challenge_timestamp) {
3475 : 0 : u32 ack_limit = net->ipv4.sysctl_tcp_challenge_ack_limit;
3476 : 0 : u32 half = (ack_limit + 1) >> 1;
3477 : :
3478 : 0 : challenge_timestamp = now;
3479 : 0 : WRITE_ONCE(challenge_count, half + prandom_u32_max(ack_limit));
3480 : : }
3481 : : count = READ_ONCE(challenge_count);
3482 [ # # ]: 0 : if (count > 0) {
3483 : 0 : WRITE_ONCE(challenge_count, count - 1);
3484 : 0 : NET_INC_STATS(net, LINUX_MIB_TCPCHALLENGEACK);
3485 : 0 : tcp_send_ack(sk);
3486 : : }
3487 : : }
3488 : :
3489 : : static void tcp_store_ts_recent(struct tcp_sock *tp)
3490 : : {
3491 : 0 : tp->rx_opt.ts_recent = tp->rx_opt.rcv_tsval;
3492 : 0 : tp->rx_opt.ts_recent_stamp = ktime_get_seconds();
3493 : : }
3494 : :
3495 : 918 : static void tcp_replace_ts_recent(struct tcp_sock *tp, u32 seq)
3496 : : {
3497 [ - + # # ]: 918 : if (tp->rx_opt.saw_tstamp && !after(seq, tp->rcv_wup)) {
3498 : : /* PAWS bug workaround wrt. ACK frames, the PAWS discard
3499 : : * extra check below makes sure this can only happen
3500 : : * for pure ACK frames. -DaveM
3501 : : *
3502 : : * Not only, also it occurs for expired timestamps.
3503 : : */
3504 : :
3505 [ # # ]: 0 : if (tcp_paws_check(&tp->rx_opt, 0))
3506 : : tcp_store_ts_recent(tp);
3507 : : }
3508 : 918 : }
3509 : :
3510 : : /* This routine deals with acks during a TLP episode and ends an episode by
3511 : : * resetting tlp_high_seq. Ref: TLP algorithm in draft-ietf-tcpm-rack
3512 : : */
3513 : 0 : static void tcp_process_tlp_ack(struct sock *sk, u32 ack, int flag)
3514 : : {
3515 : : struct tcp_sock *tp = tcp_sk(sk);
3516 : :
3517 [ # # ]: 0 : if (before(ack, tp->tlp_high_seq))
3518 : 0 : return;
3519 : :
3520 [ # # ]: 0 : if (!tp->tlp_retrans) {
3521 : : /* TLP of new data has been acknowledged */
3522 : 0 : tp->tlp_high_seq = 0;
3523 [ # # ]: 0 : } else if (flag & FLAG_DSACKING_ACK) {
3524 : : /* This DSACK means original and TLP probe arrived; no loss */
3525 : 0 : tp->tlp_high_seq = 0;
3526 [ # # ]: 0 : } else if (after(ack, tp->tlp_high_seq)) {
3527 : : /* ACK advances: there was a loss, so reduce cwnd. Reset
3528 : : * tlp_high_seq in tcp_init_cwnd_reduction()
3529 : : */
3530 : 0 : tcp_init_cwnd_reduction(sk);
3531 : : tcp_set_ca_state(sk, TCP_CA_CWR);
3532 : 0 : tcp_end_cwnd_reduction(sk);
3533 : 0 : tcp_try_keep_open(sk);
3534 : 0 : NET_INC_STATS(sock_net(sk),
3535 : : LINUX_MIB_TCPLOSSPROBERECOVERY);
3536 [ # # ]: 0 : } else if (!(flag & (FLAG_SND_UNA_ADVANCED |
3537 : : FLAG_NOT_DUP | FLAG_DATA_SACKED))) {
3538 : : /* Pure dupack: original and TLP probe arrived; no loss */
3539 : 0 : tp->tlp_high_seq = 0;
3540 : : }
3541 : : }
3542 : :
3543 : : static inline void tcp_in_ack_event(struct sock *sk, u32 flags)
3544 : : {
3545 : : const struct inet_connection_sock *icsk = inet_csk(sk);
3546 : :
3547 [ - + - + ]: 1370 : if (icsk->icsk_ca_ops->in_ack_event)
3548 : 0 : icsk->icsk_ca_ops->in_ack_event(sk, flags);
3549 : : }
3550 : :
3551 : : /* Congestion control has updated the cwnd already. So if we're in
3552 : : * loss recovery then now we do any new sends (for FRTO) or
3553 : : * retransmits (for CA_Loss or CA_recovery) that make sense.
3554 : : */
3555 : 596 : static void tcp_xmit_recovery(struct sock *sk, int rexmit)
3556 : : {
3557 : : struct tcp_sock *tp = tcp_sk(sk);
3558 : :
3559 [ + + + - ]: 596 : if (rexmit == REXMIT_NONE || sk->sk_state == TCP_SYN_SENT)
3560 : : return;
3561 : :
3562 [ - + ]: 6 : if (unlikely(rexmit == 2)) {
3563 : 0 : __tcp_push_pending_frames(sk, tcp_current_mss(sk),
3564 : : TCP_NAGLE_OFF);
3565 [ # # ]: 0 : if (after(tp->snd_nxt, tp->high_seq))
3566 : : return;
3567 : 0 : tp->frto = 0;
3568 : : }
3569 : 6 : tcp_xmit_retransmit_queue(sk);
3570 : : }
3571 : :
3572 : : /* Returns the number of packets newly acked or sacked by the current ACK */
3573 : 596 : static u32 tcp_newly_delivered(struct sock *sk, u32 prior_delivered, int flag)
3574 : : {
3575 : : const struct net *net = sock_net(sk);
3576 : : struct tcp_sock *tp = tcp_sk(sk);
3577 : : u32 delivered;
3578 : :
3579 : 596 : delivered = tp->delivered - prior_delivered;
3580 : 1192 : NET_ADD_STATS(net, LINUX_MIB_TCPDELIVERED, delivered);
3581 [ - + ]: 596 : if (flag & FLAG_ECE) {
3582 : 0 : tp->delivered_ce += delivered;
3583 : 0 : NET_ADD_STATS(net, LINUX_MIB_TCPDELIVEREDCE, delivered);
3584 : : }
3585 : 596 : return delivered;
3586 : : }
3587 : :
3588 : : /* This routine deals with incoming acks, but not outgoing ones. */
3589 : 1370 : static int tcp_ack(struct sock *sk, const struct sk_buff *skb, int flag)
3590 : : {
3591 : : struct inet_connection_sock *icsk = inet_csk(sk);
3592 : : struct tcp_sock *tp = tcp_sk(sk);
3593 : : struct tcp_sacktag_state sack_state;
3594 : 1370 : struct rate_sample rs = { .prior_delivered = 0 };
3595 : 1370 : u32 prior_snd_una = tp->snd_una;
3596 : 1370 : bool is_sack_reneg = tp->is_sack_reneg;
3597 : 1370 : u32 ack_seq = TCP_SKB_CB(skb)->seq;
3598 : 1370 : u32 ack = TCP_SKB_CB(skb)->ack_seq;
3599 : : int num_dupack = 0;
3600 : 1370 : int prior_packets = tp->packets_out;
3601 : 1370 : u32 delivered = tp->delivered;
3602 : 1370 : u32 lost = tp->lost;
3603 : 1370 : int rexmit = REXMIT_NONE; /* Flag to (re)transmit to recover losses */
3604 : : u32 prior_fack;
3605 : :
3606 : 1370 : sack_state.first_sackt = 0;
3607 : 1370 : sack_state.rate = &rs;
3608 : :
3609 : : /* We very likely will need to access rtx queue. */
3610 : 1370 : prefetch(sk->tcp_rtx_queue.rb_node);
3611 : :
3612 : : /* If the ack is older than previous acks
3613 : : * then we can probably ignore it.
3614 : : */
3615 [ - + ]: 1370 : if (before(ack, prior_snd_una)) {
3616 : : /* RFC 5961 5.2 [Blind Data Injection Attack].[Mitigation] */
3617 [ # # ]: 0 : if (before(ack, prior_snd_una - tp->max_window)) {
3618 [ # # ]: 0 : if (!(flag & FLAG_NO_CHALLENGE_ACK))
3619 : 0 : tcp_send_challenge_ack(sk, skb);
3620 : : return -1;
3621 : : }
3622 : : goto old_ack;
3623 : : }
3624 : :
3625 : : /* If the ack includes data we haven't sent yet, discard
3626 : : * this segment (RFC793 Section 3.9).
3627 : : */
3628 [ + - ]: 2740 : if (after(ack, tp->snd_nxt))
3629 : : return -1;
3630 : :
3631 [ + + ]: 1370 : if (after(ack, prior_snd_una)) {
3632 : 506 : flag |= FLAG_SND_UNA_ADVANCED;
3633 : 506 : icsk->icsk_retransmits = 0;
3634 : :
3635 : : #if IS_ENABLED(CONFIG_TLS_DEVICE)
3636 : : if (static_branch_unlikely(&clean_acked_data_enabled.key))
3637 : : if (icsk->icsk_clean_acked)
3638 : : icsk->icsk_clean_acked(sk, ack);
3639 : : #endif
3640 : : }
3641 : :
3642 [ - + ]: 2740 : prior_fack = tcp_is_sack(tp) ? tcp_highest_sack_seq(tp) : tp->snd_una;
3643 : 1370 : rs.prior_in_flight = tcp_packets_in_flight(tp);
3644 : :
3645 : : /* ts_recent update must be made after we are sure that the packet
3646 : : * is in window.
3647 : : */
3648 [ + + ]: 1370 : if (flag & FLAG_UPDATE_TS_RECENT)
3649 : 918 : tcp_replace_ts_recent(tp, TCP_SKB_CB(skb)->seq);
3650 : :
3651 [ + + ]: 1370 : if ((flag & (FLAG_SLOWPATH | FLAG_SND_UNA_ADVANCED)) ==
3652 : : FLAG_SND_UNA_ADVANCED) {
3653 : : /* Window is constant, pure forward advance.
3654 : : * No more checks are required.
3655 : : * Note, we use the fact that SND.UNA>=SND.WL2.
3656 : : */
3657 : : tcp_update_wl(tp, ack_seq);
3658 : : tcp_snd_una_update(tp, ack);
3659 : 378 : flag |= FLAG_WIN_UPDATE;
3660 : :
3661 : : tcp_in_ack_event(sk, CA_ACK_WIN_UPDATE);
3662 : :
3663 : 756 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPHPACKS);
3664 : : } else {
3665 : : u32 ack_ev_flags = CA_ACK_SLOWPATH;
3666 : :
3667 [ + + ]: 992 : if (ack_seq != TCP_SKB_CB(skb)->end_seq)
3668 : 940 : flag |= FLAG_DATA;
3669 : : else
3670 : 104 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPPUREACKS);
3671 : :
3672 : 992 : flag |= tcp_ack_update_window(sk, skb, ack, ack_seq);
3673 : :
3674 [ - + ]: 992 : if (TCP_SKB_CB(skb)->sacked)
3675 : 0 : flag |= tcp_sacktag_write_queue(sk, skb, prior_snd_una,
3676 : : &sack_state);
3677 : :
3678 [ - + ]: 992 : if (tcp_ecn_rcv_ecn_echo(tp, tcp_hdr(skb))) {
3679 : 0 : flag |= FLAG_ECE;
3680 : : ack_ev_flags |= CA_ACK_ECE;
3681 : : }
3682 : :
3683 [ + + ]: 992 : if (flag & FLAG_WIN_UPDATE)
3684 : 980 : ack_ev_flags |= CA_ACK_WIN_UPDATE;
3685 : :
3686 : : tcp_in_ack_event(sk, ack_ev_flags);
3687 : : }
3688 : :
3689 : : /* This is a deviation from RFC3168 since it states that:
3690 : : * "When the TCP data sender is ready to set the CWR bit after reducing
3691 : : * the congestion window, it SHOULD set the CWR bit only on the first
3692 : : * new data packet that it transmits."
3693 : : * We accept CWR on pure ACKs to be more robust
3694 : : * with widely-deployed TCP implementations that do this.
3695 : : */
3696 : : tcp_ecn_accept_cwr(sk, skb);
3697 : :
3698 : : /* We passed data and got it acked, remove any soft error
3699 : : * log. Something worked...
3700 : : */
3701 : 1370 : sk->sk_err_soft = 0;
3702 : 1370 : icsk->icsk_probes_out = 0;
3703 : 1370 : tp->rcv_tstamp = tcp_jiffies32;
3704 [ + + ]: 1370 : if (!prior_packets)
3705 : : goto no_queue;
3706 : :
3707 : : /* See if we can take anything off of the retransmit queue. */
3708 : 596 : flag |= tcp_clean_rtx_queue(sk, prior_fack, prior_snd_una, &sack_state);
3709 : :
3710 : 596 : tcp_rack_update_reo_wnd(sk, &rs);
3711 : :
3712 [ - + ]: 596 : if (tp->tlp_high_seq)
3713 : 0 : tcp_process_tlp_ack(sk, ack, flag);
3714 : : /* If needed, reset TLP/RTO timer; RACK may later override this. */
3715 [ + + ]: 596 : if (flag & FLAG_SET_XMIT_TIMER)
3716 : 500 : tcp_set_xmit_timer(sk);
3717 : :
3718 [ + + ]: 1192 : if (tcp_ack_is_dubious(sk, flag)) {
3719 [ - + ]: 16 : if (!(flag & (FLAG_SND_UNA_ADVANCED | FLAG_NOT_DUP))) {
3720 : : num_dupack = 1;
3721 : : /* Consider if pure acks were aggregated in tcp_add_backlog() */
3722 [ # # ]: 0 : if (!(flag & FLAG_DATA))
3723 [ # # ]: 0 : num_dupack = max_t(u16, 1, skb_shinfo(skb)->gso_segs);
3724 : : }
3725 : 16 : tcp_fastretrans_alert(sk, prior_snd_una, num_dupack, &flag,
3726 : : &rexmit);
3727 : : }
3728 : :
3729 [ + + - + ]: 596 : if ((flag & FLAG_FORWARD_PROGRESS) || !(flag & FLAG_NOT_DUP))
3730 : : sk_dst_confirm(sk);
3731 : :
3732 : 596 : delivered = tcp_newly_delivered(sk, delivered, flag);
3733 : 596 : lost = tp->lost - lost; /* freshly marked lost */
3734 : 596 : rs.is_ack_delayed = !!(flag & FLAG_ACK_MAYBE_DELAYED);
3735 : 596 : tcp_rate_gen(sk, delivered, lost, is_sack_reneg, sack_state.rate);
3736 : 596 : tcp_cong_control(sk, ack, delivered, flag, sack_state.rate);
3737 : 596 : tcp_xmit_recovery(sk, rexmit);
3738 : 596 : return 1;
3739 : :
3740 : : no_queue:
3741 : : /* If data was DSACKed, see if we can undo a cwnd reduction. */
3742 [ - + ]: 774 : if (flag & FLAG_DSACKING_ACK) {
3743 : 0 : tcp_fastretrans_alert(sk, prior_snd_una, num_dupack, &flag,
3744 : : &rexmit);
3745 : 0 : tcp_newly_delivered(sk, delivered, flag);
3746 : : }
3747 : : /* If this ack opens up a zero window, clear backoff. It was
3748 : : * being used to time the probes, and is probably far higher than
3749 : : * it needs to be for normal retransmission.
3750 : : */
3751 : 774 : tcp_ack_probe(sk);
3752 : :
3753 [ - + ]: 774 : if (tp->tlp_high_seq)
3754 : 0 : tcp_process_tlp_ack(sk, ack, flag);
3755 : : return 1;
3756 : :
3757 : : old_ack:
3758 : : /* If data was SACKed, tag it and see if we should send more data.
3759 : : * If data was DSACKed, see if we can undo a cwnd reduction.
3760 : : */
3761 [ # # ]: 0 : if (TCP_SKB_CB(skb)->sacked) {
3762 : 0 : flag |= tcp_sacktag_write_queue(sk, skb, prior_snd_una,
3763 : : &sack_state);
3764 : 0 : tcp_fastretrans_alert(sk, prior_snd_una, num_dupack, &flag,
3765 : : &rexmit);
3766 : 0 : tcp_newly_delivered(sk, delivered, flag);
3767 : 0 : tcp_xmit_recovery(sk, rexmit);
3768 : : }
3769 : :
3770 : : return 0;
3771 : : }
3772 : :
3773 : 0 : static void tcp_parse_fastopen_option(int len, const unsigned char *cookie,
3774 : : bool syn, struct tcp_fastopen_cookie *foc,
3775 : : bool exp_opt)
3776 : : {
3777 : : /* Valid only in SYN or SYN-ACK with an even length. */
3778 [ # # # # : 0 : if (!foc || !syn || len < 0 || (len & 1))
# # ]
3779 : 0 : return;
3780 : :
3781 [ # # ]: 0 : if (len >= TCP_FASTOPEN_COOKIE_MIN &&
3782 : : len <= TCP_FASTOPEN_COOKIE_MAX)
3783 : 0 : memcpy(foc->val, cookie, len);
3784 [ # # ]: 0 : else if (len != 0)
3785 : : len = -1;
3786 : 0 : foc->len = len;
3787 : 0 : foc->exp = exp_opt;
3788 : : }
3789 : :
3790 : : static void smc_parse_options(const struct tcphdr *th,
3791 : : struct tcp_options_received *opt_rx,
3792 : : const unsigned char *ptr,
3793 : : int opsize)
3794 : : {
3795 : : #if IS_ENABLED(CONFIG_SMC)
3796 : : if (static_branch_unlikely(&tcp_have_smc)) {
3797 : : if (th->syn && !(opsize & 1) &&
3798 : : opsize >= TCPOLEN_EXP_SMC_BASE &&
3799 : : get_unaligned_be32(ptr) == TCPOPT_SMC_MAGIC)
3800 : : opt_rx->smc_ok = 1;
3801 : : }
3802 : : #endif
3803 : : }
3804 : :
3805 : : /* Try to parse the MSS option from the TCP header. Return 0 on failure, clamped
3806 : : * value on success.
3807 : : */
3808 : 0 : static u16 tcp_parse_mss_option(const struct tcphdr *th, u16 user_mss)
3809 : : {
3810 : 0 : const unsigned char *ptr = (const unsigned char *)(th + 1);
3811 : 0 : int length = (th->doff * 4) - sizeof(struct tcphdr);
3812 : : u16 mss = 0;
3813 : :
3814 [ # # ]: 0 : while (length > 0) {
3815 : 0 : int opcode = *ptr++;
3816 : : int opsize;
3817 : :
3818 [ # # # ]: 0 : switch (opcode) {
3819 : : case TCPOPT_EOL:
3820 : : return mss;
3821 : : case TCPOPT_NOP: /* Ref: RFC 793 section 3.1 */
3822 : 0 : length--;
3823 : 0 : continue;
3824 : : default:
3825 [ # # ]: 0 : if (length < 2)
3826 : : return mss;
3827 : 0 : opsize = *ptr++;
3828 [ # # ]: 0 : if (opsize < 2) /* "silly options" */
3829 : : return mss;
3830 [ # # ]: 0 : if (opsize > length)
3831 : : return mss; /* fail on partial options */
3832 [ # # ]: 0 : if (opcode == TCPOPT_MSS && opsize == TCPOLEN_MSS) {
3833 : : u16 in_mss = get_unaligned_be16(ptr);
3834 : :
3835 [ # # ]: 0 : if (in_mss) {
3836 [ # # ]: 0 : if (user_mss && user_mss < in_mss)
3837 : : in_mss = user_mss;
3838 : : mss = in_mss;
3839 : : }
3840 : : }
3841 : 0 : ptr += opsize - 2;
3842 : 0 : length -= opsize;
3843 : : }
3844 : : }
3845 : : return mss;
3846 : : }
3847 : :
3848 : : /* Look for tcp options. Normally only called on SYN and SYNACK packets.
3849 : : * But, this can also be called on packets in the established flow when
3850 : : * the fast version below fails.
3851 : : */
3852 : 72 : void tcp_parse_options(const struct net *net,
3853 : : const struct sk_buff *skb,
3854 : : struct tcp_options_received *opt_rx, int estab,
3855 : : struct tcp_fastopen_cookie *foc)
3856 : : {
3857 : : const unsigned char *ptr;
3858 : : const struct tcphdr *th = tcp_hdr(skb);
3859 : 72 : int length = (th->doff * 4) - sizeof(struct tcphdr);
3860 : :
3861 : 72 : ptr = (const unsigned char *)(th + 1);
3862 : 72 : opt_rx->saw_tstamp = 0;
3863 : :
3864 [ + + ]: 216 : while (length > 0) {
3865 : 72 : int opcode = *ptr++;
3866 : : int opsize;
3867 : :
3868 [ - + - ]: 72 : switch (opcode) {
3869 : : case TCPOPT_EOL:
3870 : : return;
3871 : : case TCPOPT_NOP: /* Ref: RFC 793 section 3.1 */
3872 : 0 : length--;
3873 : 0 : continue;
3874 : : default:
3875 [ + - ]: 72 : if (length < 2)
3876 : : return;
3877 : 72 : opsize = *ptr++;
3878 [ + - ]: 72 : if (opsize < 2) /* "silly options" */
3879 : : return;
3880 [ + - ]: 72 : if (opsize > length)
3881 : : return; /* don't parse partial options */
3882 [ + - - - : 72 : switch (opcode) {
- - - - ]
3883 : : case TCPOPT_MSS:
3884 [ + - + - : 72 : if (opsize == TCPOLEN_MSS && th->syn && !estab) {
+ - ]
3885 : : u16 in_mss = get_unaligned_be16(ptr);
3886 [ + - ]: 72 : if (in_mss) {
3887 [ - + # # ]: 72 : if (opt_rx->user_mss &&
3888 : : opt_rx->user_mss < in_mss)
3889 : : in_mss = opt_rx->user_mss;
3890 : 72 : opt_rx->mss_clamp = in_mss;
3891 : : }
3892 : : }
3893 : : break;
3894 : : case TCPOPT_WINDOW:
3895 [ # # # # : 0 : if (opsize == TCPOLEN_WINDOW && th->syn &&
# # ]
3896 [ # # ]: 0 : !estab && net->ipv4.sysctl_tcp_window_scaling) {
3897 : 0 : __u8 snd_wscale = *(__u8 *)ptr;
3898 : 0 : opt_rx->wscale_ok = 1;
3899 [ # # ]: 0 : if (snd_wscale > TCP_MAX_WSCALE) {
3900 [ # # ]: 0 : net_info_ratelimited("%s: Illegal window scaling value %d > %u received\n",
3901 : : __func__,
3902 : : snd_wscale,
3903 : : TCP_MAX_WSCALE);
3904 : : snd_wscale = TCP_MAX_WSCALE;
3905 : : }
3906 : 0 : opt_rx->snd_wscale = snd_wscale;
3907 : : }
3908 : : break;
3909 : : case TCPOPT_TIMESTAMP:
3910 [ # # # # ]: 0 : if ((opsize == TCPOLEN_TIMESTAMP) &&
3911 [ # # # # ]: 0 : ((estab && opt_rx->tstamp_ok) ||
3912 [ # # ]: 0 : (!estab && net->ipv4.sysctl_tcp_timestamps))) {
3913 : 0 : opt_rx->saw_tstamp = 1;
3914 : 0 : opt_rx->rcv_tsval = get_unaligned_be32(ptr);
3915 : 0 : opt_rx->rcv_tsecr = get_unaligned_be32(ptr + 4);
3916 : : }
3917 : : break;
3918 : : case TCPOPT_SACK_PERM:
3919 [ # # # # : 0 : if (opsize == TCPOLEN_SACK_PERM && th->syn &&
# # ]
3920 [ # # ]: 0 : !estab && net->ipv4.sysctl_tcp_sack) {
3921 : 0 : opt_rx->sack_ok = TCP_SACK_SEEN;
3922 : : tcp_sack_reset(opt_rx);
3923 : : }
3924 : : break;
3925 : :
3926 : : case TCPOPT_SACK:
3927 [ # # # # ]: 0 : if ((opsize >= (TCPOLEN_SACK_BASE + TCPOLEN_SACK_PERBLOCK)) &&
3928 [ # # ]: 0 : !((opsize - TCPOLEN_SACK_BASE) % TCPOLEN_SACK_PERBLOCK) &&
3929 : : opt_rx->sack_ok) {
3930 : 0 : TCP_SKB_CB(skb)->sacked = (ptr - 2) - (unsigned char *)th;
3931 : : }
3932 : : break;
3933 : : #ifdef CONFIG_TCP_MD5SIG
3934 : : case TCPOPT_MD5SIG:
3935 : : /*
3936 : : * The MD5 Hash has already been
3937 : : * checked (see tcp_v{4,6}_do_rcv()).
3938 : : */
3939 : : break;
3940 : : #endif
3941 : : case TCPOPT_FASTOPEN:
3942 : 0 : tcp_parse_fastopen_option(
3943 : : opsize - TCPOLEN_FASTOPEN_BASE,
3944 : 0 : ptr, th->syn, foc, false);
3945 : 0 : break;
3946 : :
3947 : : case TCPOPT_EXP:
3948 : : /* Fast Open option shares code 254 using a
3949 : : * 16 bits magic number.
3950 : : */
3951 [ # # # # ]: 0 : if (opsize >= TCPOLEN_EXP_FASTOPEN_BASE &&
3952 : : get_unaligned_be16(ptr) ==
3953 : : TCPOPT_FASTOPEN_MAGIC)
3954 : 0 : tcp_parse_fastopen_option(opsize -
3955 : : TCPOLEN_EXP_FASTOPEN_BASE,
3956 : 0 : ptr + 2, th->syn, foc, true);
3957 : : else
3958 : : smc_parse_options(th, opt_rx, ptr,
3959 : : opsize);
3960 : : break;
3961 : :
3962 : : }
3963 : 72 : ptr += opsize-2;
3964 : 72 : length -= opsize;
3965 : : }
3966 : : }
3967 : : }
3968 : : EXPORT_SYMBOL(tcp_parse_options);
3969 : :
3970 : : static bool tcp_parse_aligned_timestamp(struct tcp_sock *tp, const struct tcphdr *th)
3971 : : {
3972 : : const __be32 *ptr = (const __be32 *)(th + 1);
3973 : :
3974 [ # # # # ]: 0 : if (*ptr == htonl((TCPOPT_NOP << 24) | (TCPOPT_NOP << 16)
3975 : : | (TCPOPT_TIMESTAMP << 8) | TCPOLEN_TIMESTAMP)) {
3976 : 0 : tp->rx_opt.saw_tstamp = 1;
3977 : : ++ptr;
3978 : 0 : tp->rx_opt.rcv_tsval = ntohl(*ptr);
3979 : : ++ptr;
3980 [ # # # # ]: 0 : if (*ptr)
3981 : 0 : tp->rx_opt.rcv_tsecr = ntohl(*ptr) - tp->tsoffset;
3982 : : else
3983 : 0 : tp->rx_opt.rcv_tsecr = 0;
3984 : : return true;
3985 : : }
3986 : : return false;
3987 : : }
3988 : :
3989 : : /* Fast parse options. This hopes to only see timestamps.
3990 : : * If it is wrong it falls back on tcp_parse_options().
3991 : : */
3992 : 54 : static bool tcp_fast_parse_options(const struct net *net,
3993 : : const struct sk_buff *skb,
3994 : : const struct tcphdr *th, struct tcp_sock *tp)
3995 : : {
3996 : : /* In the spirit of fast parsing, compare doff directly to constant
3997 : : * values. Because equality is used, short doff can be ignored here.
3998 : : */
3999 [ + - ]: 54 : if (th->doff == (sizeof(*th) / 4)) {
4000 : 54 : tp->rx_opt.saw_tstamp = 0;
4001 : 54 : return false;
4002 [ # # # # ]: 0 : } else if (tp->rx_opt.tstamp_ok &&
4003 : : th->doff == ((sizeof(*th) + TCPOLEN_TSTAMP_ALIGNED) / 4)) {
4004 [ # # ]: 0 : if (tcp_parse_aligned_timestamp(tp, th))
4005 : : return true;
4006 : : }
4007 : :
4008 : 0 : tcp_parse_options(net, skb, &tp->rx_opt, 1, NULL);
4009 [ # # # # ]: 0 : if (tp->rx_opt.saw_tstamp && tp->rx_opt.rcv_tsecr)
4010 : 0 : tp->rx_opt.rcv_tsecr -= tp->tsoffset;
4011 : :
4012 : : return true;
4013 : : }
4014 : :
4015 : : #ifdef CONFIG_TCP_MD5SIG
4016 : : /*
4017 : : * Parse MD5 Signature option
4018 : : */
4019 : : const u8 *tcp_parse_md5sig_option(const struct tcphdr *th)
4020 : : {
4021 : : int length = (th->doff << 2) - sizeof(*th);
4022 : : const u8 *ptr = (const u8 *)(th + 1);
4023 : :
4024 : : /* If not enough data remaining, we can short cut */
4025 : : while (length >= TCPOLEN_MD5SIG) {
4026 : : int opcode = *ptr++;
4027 : : int opsize;
4028 : :
4029 : : switch (opcode) {
4030 : : case TCPOPT_EOL:
4031 : : return NULL;
4032 : : case TCPOPT_NOP:
4033 : : length--;
4034 : : continue;
4035 : : default:
4036 : : opsize = *ptr++;
4037 : : if (opsize < 2 || opsize > length)
4038 : : return NULL;
4039 : : if (opcode == TCPOPT_MD5SIG)
4040 : : return opsize == TCPOLEN_MD5SIG ? ptr : NULL;
4041 : : }
4042 : : ptr += opsize - 2;
4043 : : length -= opsize;
4044 : : }
4045 : : return NULL;
4046 : : }
4047 : : EXPORT_SYMBOL(tcp_parse_md5sig_option);
4048 : : #endif
4049 : :
4050 : : /* Sorry, PAWS as specified is broken wrt. pure-ACKs -DaveM
4051 : : *
4052 : : * It is not fatal. If this ACK does _not_ change critical state (seqs, window)
4053 : : * it can pass through stack. So, the following predicate verifies that
4054 : : * this segment is not used for anything but congestion avoidance or
4055 : : * fast retransmit. Moreover, we even are able to eliminate most of such
4056 : : * second order effects, if we apply some small "replay" window (~RTO)
4057 : : * to timestamp space.
4058 : : *
4059 : : * All these measures still do not guarantee that we reject wrapped ACKs
4060 : : * on networks with high bandwidth, when sequence space is recycled fastly,
4061 : : * but it guarantees that such events will be very rare and do not affect
4062 : : * connection seriously. This doesn't look nice, but alas, PAWS is really
4063 : : * buggy extension.
4064 : : *
4065 : : * [ Later note. Even worse! It is buggy for segments _with_ data. RFC
4066 : : * states that events when retransmit arrives after original data are rare.
4067 : : * It is a blatant lie. VJ forgot about fast retransmit! 8)8) It is
4068 : : * the biggest problem on large power networks even with minor reordering.
4069 : : * OK, let's give it small replay window. If peer clock is even 1hz, it is safe
4070 : : * up to bandwidth of 18Gigabit/sec. 8) ]
4071 : : */
4072 : :
4073 : 0 : static int tcp_disordered_ack(const struct sock *sk, const struct sk_buff *skb)
4074 : : {
4075 : : const struct tcp_sock *tp = tcp_sk(sk);
4076 : : const struct tcphdr *th = tcp_hdr(skb);
4077 : 0 : u32 seq = TCP_SKB_CB(skb)->seq;
4078 : 0 : u32 ack = TCP_SKB_CB(skb)->ack_seq;
4079 : :
4080 : 0 : return (/* 1. Pure ACK with correct sequence number. */
4081 [ # # # # : 0 : (th->ack && seq == TCP_SKB_CB(skb)->end_seq && seq == tp->rcv_nxt) &&
# # ]
4082 : :
4083 : : /* 2. ... and duplicate ACK. */
4084 [ # # ]: 0 : ack == tp->snd_una &&
4085 : :
4086 : : /* 3. ... and does not update window. */
4087 [ # # # # ]: 0 : !tcp_may_update_window(tp, ack, seq, ntohs(th->window) << tp->rx_opt.snd_wscale) &&
4088 : :
4089 : : /* 4. ... and sits in replay window. */
4090 : 0 : (s32)(tp->rx_opt.ts_recent - tp->rx_opt.rcv_tsval) <= (inet_csk(sk)->icsk_rto * 1024) / HZ);
4091 : : }
4092 : :
4093 : 0 : static inline bool tcp_paws_discard(const struct sock *sk,
4094 : : const struct sk_buff *skb)
4095 : : {
4096 : : const struct tcp_sock *tp = tcp_sk(sk);
4097 : :
4098 [ # # # # ]: 0 : return !tcp_paws_check(&tp->rx_opt, TCP_PAWS_WINDOW) &&
4099 : 0 : !tcp_disordered_ack(sk, skb);
4100 : : }
4101 : :
4102 : : /* Check segment sequence number for validity.
4103 : : *
4104 : : * Segment controls are considered valid, if the segment
4105 : : * fits to the window after truncation to the window. Acceptability
4106 : : * of data (and SYN, FIN, of course) is checked separately.
4107 : : * See tcp_data_queue(), for example.
4108 : : *
4109 : : * Also, controls (RST is main one) are accepted using RCV.WUP instead
4110 : : * of RCV.NXT. Peer still did not advance his SND.UNA when we
4111 : : * delayed ACK, so that hisSND.UNA<=ourRCV.WUP.
4112 : : * (borrowed from freebsd)
4113 : : */
4114 : :
4115 : : static inline bool tcp_sequence(const struct tcp_sock *tp, u32 seq, u32 end_seq)
4116 : : {
4117 [ + - - + ]: 162 : return !before(end_seq, tp->rcv_wup) &&
4118 : 108 : !after(seq, tp->rcv_nxt + tcp_receive_window(tp));
4119 : : }
4120 : :
4121 : : /* When we get a reset we do this. */
4122 : 0 : void tcp_reset(struct sock *sk)
4123 : : {
4124 : 0 : trace_tcp_receive_reset(sk);
4125 : :
4126 : : /* We want the right error as BSD sees it (and indeed as we do). */
4127 [ # # # # ]: 0 : switch (sk->sk_state) {
4128 : : case TCP_SYN_SENT:
4129 : 0 : sk->sk_err = ECONNREFUSED;
4130 : 0 : break;
4131 : : case TCP_CLOSE_WAIT:
4132 : 0 : sk->sk_err = EPIPE;
4133 : 0 : break;
4134 : : case TCP_CLOSE:
4135 : 0 : return;
4136 : : default:
4137 : 0 : sk->sk_err = ECONNRESET;
4138 : : }
4139 : : /* This barrier is coupled with smp_rmb() in tcp_poll() */
4140 : 0 : smp_wmb();
4141 : :
4142 : 0 : tcp_write_queue_purge(sk);
4143 : 0 : tcp_done(sk);
4144 : :
4145 [ # # ]: 0 : if (!sock_flag(sk, SOCK_DEAD))
4146 : 0 : sk->sk_error_report(sk);
4147 : : }
4148 : :
4149 : : /*
4150 : : * Process the FIN bit. This now behaves as it is supposed to work
4151 : : * and the FIN takes effect when it is validly part of sequence
4152 : : * space. Not before when we get holes.
4153 : : *
4154 : : * If we are ESTABLISHED, a received fin moves us to CLOSE-WAIT
4155 : : * (and thence onto LAST-ACK and finally, CLOSE, we never enter
4156 : : * TIME-WAIT)
4157 : : *
4158 : : * If we are in FINWAIT-1, a received FIN indicates simultaneous
4159 : : * close and we go into CLOSING (and later onto TIME-WAIT)
4160 : : *
4161 : : * If we are in FINWAIT-2, a received FIN moves us to TIME-WAIT.
4162 : : */
4163 : 2 : void tcp_fin(struct sock *sk)
4164 : : {
4165 : : struct tcp_sock *tp = tcp_sk(sk);
4166 : :
4167 : : inet_csk_schedule_ack(sk);
4168 : :
4169 : 2 : sk->sk_shutdown |= RCV_SHUTDOWN;
4170 : : sock_set_flag(sk, SOCK_DONE);
4171 : :
4172 [ + - - - : 2 : switch (sk->sk_state) {
- ]
4173 : : case TCP_SYN_RECV:
4174 : : case TCP_ESTABLISHED:
4175 : : /* Move to CLOSE_WAIT */
4176 : 2 : tcp_set_state(sk, TCP_CLOSE_WAIT);
4177 : : inet_csk_enter_pingpong_mode(sk);
4178 : : break;
4179 : :
4180 : : case TCP_CLOSE_WAIT:
4181 : : case TCP_CLOSING:
4182 : : /* Received a retransmission of the FIN, do
4183 : : * nothing.
4184 : : */
4185 : : break;
4186 : : case TCP_LAST_ACK:
4187 : : /* RFC793: Remain in the LAST-ACK state. */
4188 : : break;
4189 : :
4190 : : case TCP_FIN_WAIT1:
4191 : : /* This case occurs when a simultaneous close
4192 : : * happens, we must ack the received FIN and
4193 : : * enter the CLOSING state.
4194 : : */
4195 : 0 : tcp_send_ack(sk);
4196 : 0 : tcp_set_state(sk, TCP_CLOSING);
4197 : 0 : break;
4198 : : case TCP_FIN_WAIT2:
4199 : : /* Received a FIN -- send ACK and enter TIME_WAIT. */
4200 : 0 : tcp_send_ack(sk);
4201 : 0 : tcp_time_wait(sk, TCP_TIME_WAIT, 0);
4202 : 0 : break;
4203 : : default:
4204 : : /* Only TCP_LISTEN and TCP_CLOSE are left, in these
4205 : : * cases we should never reach this piece of code.
4206 : : */
4207 : 0 : pr_err("%s: Impossible, sk->sk_state=%d\n",
4208 : : __func__, sk->sk_state);
4209 : 0 : break;
4210 : : }
4211 : :
4212 : : /* It _is_ possible, that we have something out-of-order _after_ FIN.
4213 : : * Probably, we should reset in this case. For now drop them.
4214 : : */
4215 : 2 : skb_rbtree_purge(&tp->out_of_order_queue);
4216 [ - + ]: 2 : if (tcp_is_sack(tp))
4217 : : tcp_sack_reset(&tp->rx_opt);
4218 : 2 : sk_mem_reclaim(sk);
4219 : :
4220 [ + - ]: 2 : if (!sock_flag(sk, SOCK_DEAD)) {
4221 : 2 : sk->sk_state_change(sk);
4222 : :
4223 : : /* Do not send POLL_HUP for half duplex close. */
4224 [ + - - + ]: 4 : if (sk->sk_shutdown == SHUTDOWN_MASK ||
4225 : 2 : sk->sk_state == TCP_CLOSE)
4226 : 0 : sk_wake_async(sk, SOCK_WAKE_WAITD, POLL_HUP);
4227 : : else
4228 : 2 : sk_wake_async(sk, SOCK_WAKE_WAITD, POLL_IN);
4229 : : }
4230 : 2 : }
4231 : :
4232 : : static inline bool tcp_sack_extend(struct tcp_sack_block *sp, u32 seq,
4233 : : u32 end_seq)
4234 : : {
4235 [ # # # # : 0 : if (!after(seq, sp->end_seq) && !after(sp->start_seq, end_seq)) {
# # # # #
# # # ]
4236 [ # # # # : 0 : if (before(seq, sp->start_seq))
# # ]
4237 : 0 : sp->start_seq = seq;
4238 [ # # # # : 0 : if (after(end_seq, sp->end_seq))
# # ]
4239 : 0 : sp->end_seq = end_seq;
4240 : : return true;
4241 : : }
4242 : : return false;
4243 : : }
4244 : :
4245 : 2 : static void tcp_dsack_set(struct sock *sk, u32 seq, u32 end_seq)
4246 : : {
4247 : : struct tcp_sock *tp = tcp_sk(sk);
4248 : :
4249 [ - + # # ]: 2 : if (tcp_is_sack(tp) && sock_net(sk)->ipv4.sysctl_tcp_dsack) {
4250 : : int mib_idx;
4251 : :
4252 [ # # ]: 0 : if (before(seq, tp->rcv_nxt))
4253 : : mib_idx = LINUX_MIB_TCPDSACKOLDSENT;
4254 : : else
4255 : : mib_idx = LINUX_MIB_TCPDSACKOFOSENT;
4256 : :
4257 : 0 : NET_INC_STATS(sock_net(sk), mib_idx);
4258 : :
4259 : 0 : tp->rx_opt.dsack = 1;
4260 : 0 : tp->duplicate_sack[0].start_seq = seq;
4261 : 0 : tp->duplicate_sack[0].end_seq = end_seq;
4262 : : }
4263 : 2 : }
4264 : :
4265 : 0 : static void tcp_dsack_extend(struct sock *sk, u32 seq, u32 end_seq)
4266 : : {
4267 : : struct tcp_sock *tp = tcp_sk(sk);
4268 : :
4269 [ # # ]: 0 : if (!tp->rx_opt.dsack)
4270 : 0 : tcp_dsack_set(sk, seq, end_seq);
4271 : : else
4272 : : tcp_sack_extend(tp->duplicate_sack, seq, end_seq);
4273 : 0 : }
4274 : :
4275 : 2 : static void tcp_rcv_spurious_retrans(struct sock *sk, const struct sk_buff *skb)
4276 : : {
4277 : : /* When the ACK path fails or drops most ACKs, the sender would
4278 : : * timeout and spuriously retransmit the same segment repeatedly.
4279 : : * The receiver remembers and reflects via DSACKs. Leverage the
4280 : : * DSACK state and change the txhash to re-route speculatively.
4281 : : */
4282 [ - + ]: 2 : if (TCP_SKB_CB(skb)->seq == tcp_sk(sk)->duplicate_sack[0].start_seq)
4283 : : sk_rethink_txhash(sk);
4284 : 2 : }
4285 : :
4286 : 0 : static void tcp_send_dupack(struct sock *sk, const struct sk_buff *skb)
4287 : : {
4288 : : struct tcp_sock *tp = tcp_sk(sk);
4289 : :
4290 [ # # # # ]: 0 : if (TCP_SKB_CB(skb)->end_seq != TCP_SKB_CB(skb)->seq &&
4291 : 0 : before(TCP_SKB_CB(skb)->seq, tp->rcv_nxt)) {
4292 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_DELAYEDACKLOST);
4293 : : tcp_enter_quickack_mode(sk, TCP_MAX_QUICKACKS);
4294 : :
4295 [ # # # # ]: 0 : if (tcp_is_sack(tp) && sock_net(sk)->ipv4.sysctl_tcp_dsack) {
4296 : 0 : u32 end_seq = TCP_SKB_CB(skb)->end_seq;
4297 : :
4298 : 0 : tcp_rcv_spurious_retrans(sk, skb);
4299 [ # # ]: 0 : if (after(TCP_SKB_CB(skb)->end_seq, tp->rcv_nxt))
4300 : : end_seq = tp->rcv_nxt;
4301 : 0 : tcp_dsack_set(sk, TCP_SKB_CB(skb)->seq, end_seq);
4302 : : }
4303 : : }
4304 : :
4305 : 0 : tcp_send_ack(sk);
4306 : 0 : }
4307 : :
4308 : : /* These routines update the SACK block as out-of-order packets arrive or
4309 : : * in-order packets close up the sequence space.
4310 : : */
4311 : 0 : static void tcp_sack_maybe_coalesce(struct tcp_sock *tp)
4312 : : {
4313 : : int this_sack;
4314 : 0 : struct tcp_sack_block *sp = &tp->selective_acks[0];
4315 : 0 : struct tcp_sack_block *swalk = sp + 1;
4316 : :
4317 : : /* See if the recent change to the first SACK eats into
4318 : : * or hits the sequence space of other SACK blocks, if so coalesce.
4319 : : */
4320 [ # # ]: 0 : for (this_sack = 1; this_sack < tp->rx_opt.num_sacks;) {
4321 [ # # ]: 0 : if (tcp_sack_extend(sp, swalk->start_seq, swalk->end_seq)) {
4322 : : int i;
4323 : :
4324 : : /* Zap SWALK, by moving every further SACK up by one slot.
4325 : : * Decrease num_sacks.
4326 : : */
4327 : 0 : tp->rx_opt.num_sacks--;
4328 [ # # ]: 0 : for (i = this_sack; i < tp->rx_opt.num_sacks; i++)
4329 : 0 : sp[i] = sp[i + 1];
4330 : 0 : continue;
4331 : : }
4332 : 0 : this_sack++, swalk++;
4333 : : }
4334 : 0 : }
4335 : :
4336 : 0 : static void tcp_sack_new_ofo_skb(struct sock *sk, u32 seq, u32 end_seq)
4337 : : {
4338 : : struct tcp_sock *tp = tcp_sk(sk);
4339 : 0 : struct tcp_sack_block *sp = &tp->selective_acks[0];
4340 : 0 : int cur_sacks = tp->rx_opt.num_sacks;
4341 : : int this_sack;
4342 : :
4343 [ # # ]: 0 : if (!cur_sacks)
4344 : : goto new_sack;
4345 : :
4346 [ # # ]: 0 : for (this_sack = 0; this_sack < cur_sacks; this_sack++, sp++) {
4347 [ # # ]: 0 : if (tcp_sack_extend(sp, seq, end_seq)) {
4348 : : /* Rotate this_sack to the first one. */
4349 [ # # ]: 0 : for (; this_sack > 0; this_sack--, sp--)
4350 : 0 : swap(*sp, *(sp - 1));
4351 [ # # ]: 0 : if (cur_sacks > 1)
4352 : 0 : tcp_sack_maybe_coalesce(tp);
4353 : 0 : return;
4354 : : }
4355 : : }
4356 : :
4357 : : /* Could not find an adjacent existing SACK, build a new one,
4358 : : * put it at the front, and shift everyone else down. We
4359 : : * always know there is at least one SACK present already here.
4360 : : *
4361 : : * If the sack array is full, forget about the last one.
4362 : : */
4363 [ # # ]: 0 : if (this_sack >= TCP_NUM_SACKS) {
4364 [ # # ]: 0 : if (tp->compressed_ack > TCP_FASTRETRANS_THRESH)
4365 : 0 : tcp_send_ack(sk);
4366 : 0 : this_sack--;
4367 : 0 : tp->rx_opt.num_sacks--;
4368 : 0 : sp--;
4369 : : }
4370 [ # # ]: 0 : for (; this_sack > 0; this_sack--, sp--)
4371 : 0 : *sp = *(sp - 1);
4372 : :
4373 : : new_sack:
4374 : : /* Build the new head SACK, and we're done. */
4375 : 0 : sp->start_seq = seq;
4376 : 0 : sp->end_seq = end_seq;
4377 : 0 : tp->rx_opt.num_sacks++;
4378 : : }
4379 : :
4380 : : /* RCV.NXT advances, some SACKs should be eaten. */
4381 : :
4382 : 0 : static void tcp_sack_remove(struct tcp_sock *tp)
4383 : : {
4384 : 0 : struct tcp_sack_block *sp = &tp->selective_acks[0];
4385 : 0 : int num_sacks = tp->rx_opt.num_sacks;
4386 : : int this_sack;
4387 : :
4388 : : /* Empty ofo queue, hence, all the SACKs are eaten. Clear. */
4389 [ # # ]: 0 : if (RB_EMPTY_ROOT(&tp->out_of_order_queue)) {
4390 : 0 : tp->rx_opt.num_sacks = 0;
4391 : 0 : return;
4392 : : }
4393 : :
4394 [ # # ]: 0 : for (this_sack = 0; this_sack < num_sacks;) {
4395 : : /* Check if the start of the sack is covered by RCV.NXT. */
4396 [ # # ]: 0 : if (!before(tp->rcv_nxt, sp->start_seq)) {
4397 : : int i;
4398 : :
4399 : : /* RCV.NXT must cover all the block! */
4400 [ # # ]: 0 : WARN_ON(before(tp->rcv_nxt, sp->end_seq));
4401 : :
4402 : : /* Zap this SACK, by moving forward any other SACKS. */
4403 [ # # ]: 0 : for (i = this_sack+1; i < num_sacks; i++)
4404 : 0 : tp->selective_acks[i-1] = tp->selective_acks[i];
4405 : 0 : num_sacks--;
4406 : 0 : continue;
4407 : : }
4408 : 0 : this_sack++;
4409 : 0 : sp++;
4410 : : }
4411 : 0 : tp->rx_opt.num_sacks = num_sacks;
4412 : : }
4413 : :
4414 : : /**
4415 : : * tcp_try_coalesce - try to merge skb to prior one
4416 : : * @sk: socket
4417 : : * @dest: destination queue
4418 : : * @to: prior buffer
4419 : : * @from: buffer to add in queue
4420 : : * @fragstolen: pointer to boolean
4421 : : *
4422 : : * Before queueing skb @from after @to, try to merge them
4423 : : * to reduce overall memory use and queue lengths, if cost is small.
4424 : : * Packets in ofo or receive queues can stay a long time.
4425 : : * Better try to coalesce them right now to avoid future collapses.
4426 : : * Returns true if caller should free @from instead of queueing it
4427 : : */
4428 : 4098 : static bool tcp_try_coalesce(struct sock *sk,
4429 : : struct sk_buff *to,
4430 : : struct sk_buff *from,
4431 : : bool *fragstolen)
4432 : : {
4433 : : int delta;
4434 : :
4435 : 4098 : *fragstolen = false;
4436 : :
4437 : : /* Its possible this segment overlaps with prior segment in queue */
4438 [ + - ]: 4098 : if (TCP_SKB_CB(from)->seq != TCP_SKB_CB(to)->end_seq)
4439 : : return false;
4440 : :
4441 : : #ifdef CONFIG_TLS_DEVICE
4442 : : if (from->decrypted != to->decrypted)
4443 : : return false;
4444 : : #endif
4445 : :
4446 [ + + ]: 4098 : if (!skb_try_coalesce(to, from, fragstolen, &delta))
4447 : : return false;
4448 : :
4449 : 3982 : atomic_add(delta, &sk->sk_rmem_alloc);
4450 : 3982 : sk_mem_charge(sk, delta);
4451 : 7964 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVCOALESCE);
4452 : 3982 : TCP_SKB_CB(to)->end_seq = TCP_SKB_CB(from)->end_seq;
4453 : 3982 : TCP_SKB_CB(to)->ack_seq = TCP_SKB_CB(from)->ack_seq;
4454 : 3982 : TCP_SKB_CB(to)->tcp_flags |= TCP_SKB_CB(from)->tcp_flags;
4455 : :
4456 [ - + ]: 3982 : if (TCP_SKB_CB(from)->has_rxtstamp) {
4457 : 0 : TCP_SKB_CB(to)->has_rxtstamp = true;
4458 : 0 : to->tstamp = from->tstamp;
4459 : 0 : skb_hwtstamps(to)->hwtstamp = skb_hwtstamps(from)->hwtstamp;
4460 : : }
4461 : :
4462 : : return true;
4463 : : }
4464 : :
4465 : 0 : static bool tcp_ooo_try_coalesce(struct sock *sk,
4466 : : struct sk_buff *to,
4467 : : struct sk_buff *from,
4468 : : bool *fragstolen)
4469 : : {
4470 : 0 : bool res = tcp_try_coalesce(sk, to, from, fragstolen);
4471 : :
4472 : : /* In case tcp_drop() is called later, update to->gso_segs */
4473 [ # # ]: 0 : if (res) {
4474 [ # # ]: 0 : u32 gso_segs = max_t(u16, 1, skb_shinfo(to)->gso_segs) +
4475 [ # # ]: 0 : max_t(u16, 1, skb_shinfo(from)->gso_segs);
4476 : :
4477 : 0 : skb_shinfo(to)->gso_segs = min_t(u32, gso_segs, 0xFFFF);
4478 : : }
4479 : 0 : return res;
4480 : : }
4481 : :
4482 : : static void tcp_drop(struct sock *sk, struct sk_buff *skb)
4483 : : {
4484 : 50 : sk_drops_add(sk, skb);
4485 : 50 : __kfree_skb(skb);
4486 : : }
4487 : :
4488 : : /* This one checks to see if we can put data from the
4489 : : * out_of_order queue into the receive_queue.
4490 : : */
4491 : 0 : static void tcp_ofo_queue(struct sock *sk)
4492 : : {
4493 : : struct tcp_sock *tp = tcp_sk(sk);
4494 : 0 : __u32 dsack_high = tp->rcv_nxt;
4495 : : bool fin, fragstolen, eaten;
4496 : : struct sk_buff *skb, *tail;
4497 : : struct rb_node *p;
4498 : :
4499 : 0 : p = rb_first(&tp->out_of_order_queue);
4500 [ # # ]: 0 : while (p) {
4501 [ # # ]: 0 : skb = rb_to_skb(p);
4502 [ # # ]: 0 : if (after(TCP_SKB_CB(skb)->seq, tp->rcv_nxt))
4503 : : break;
4504 : :
4505 [ # # ]: 0 : if (before(TCP_SKB_CB(skb)->seq, dsack_high)) {
4506 : : __u32 dsack = dsack_high;
4507 [ # # ]: 0 : if (before(TCP_SKB_CB(skb)->end_seq, dsack_high))
4508 : : dsack_high = TCP_SKB_CB(skb)->end_seq;
4509 : 0 : tcp_dsack_extend(sk, TCP_SKB_CB(skb)->seq, dsack);
4510 : : }
4511 : 0 : p = rb_next(p);
4512 : 0 : rb_erase(&skb->rbnode, &tp->out_of_order_queue);
4513 : :
4514 [ # # ]: 0 : if (unlikely(!after(TCP_SKB_CB(skb)->end_seq, tp->rcv_nxt))) {
4515 : : tcp_drop(sk, skb);
4516 : 0 : continue;
4517 : : }
4518 : :
4519 : 0 : tail = skb_peek_tail(&sk->sk_receive_queue);
4520 [ # # # # ]: 0 : eaten = tail && tcp_try_coalesce(sk, tail, skb, &fragstolen);
4521 : 0 : tcp_rcv_nxt_update(tp, TCP_SKB_CB(skb)->end_seq);
4522 : 0 : fin = TCP_SKB_CB(skb)->tcp_flags & TCPHDR_FIN;
4523 [ # # ]: 0 : if (!eaten)
4524 : : __skb_queue_tail(&sk->sk_receive_queue, skb);
4525 : : else
4526 : 0 : kfree_skb_partial(skb, fragstolen);
4527 : :
4528 [ # # ]: 0 : if (unlikely(fin)) {
4529 : 0 : tcp_fin(sk);
4530 : : /* tcp_fin() purges tp->out_of_order_queue,
4531 : : * so we must end this loop right now.
4532 : : */
4533 : 0 : break;
4534 : : }
4535 : : }
4536 : 0 : }
4537 : :
4538 : : static bool tcp_prune_ofo_queue(struct sock *sk);
4539 : : static int tcp_prune_queue(struct sock *sk);
4540 : :
4541 : 846 : static int tcp_try_rmem_schedule(struct sock *sk, struct sk_buff *skb,
4542 : : unsigned int size)
4543 : : {
4544 [ + - - + ]: 1692 : if (atomic_read(&sk->sk_rmem_alloc) > sk->sk_rcvbuf ||
4545 : 846 : !sk_rmem_schedule(sk, skb, size)) {
4546 : :
4547 [ # # ]: 0 : if (tcp_prune_queue(sk) < 0)
4548 : : return -1;
4549 : :
4550 [ # # ]: 0 : while (!sk_rmem_schedule(sk, skb, size)) {
4551 [ # # ]: 0 : if (!tcp_prune_ofo_queue(sk))
4552 : : return -1;
4553 : : }
4554 : : }
4555 : : return 0;
4556 : : }
4557 : :
4558 : 0 : static void tcp_data_queue_ofo(struct sock *sk, struct sk_buff *skb)
4559 : : {
4560 : : struct tcp_sock *tp = tcp_sk(sk);
4561 : : struct rb_node **p, *parent;
4562 : : struct sk_buff *skb1;
4563 : : u32 seq, end_seq;
4564 : : bool fragstolen;
4565 : :
4566 : : tcp_ecn_check_ce(sk, skb);
4567 : :
4568 [ # # ]: 0 : if (unlikely(tcp_try_rmem_schedule(sk, skb, skb->truesize))) {
4569 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPOFODROP);
4570 : 0 : sk->sk_data_ready(sk);
4571 : : tcp_drop(sk, skb);
4572 : 0 : return;
4573 : : }
4574 : :
4575 : : /* Disable header prediction. */
4576 : 0 : tp->pred_flags = 0;
4577 : : inet_csk_schedule_ack(sk);
4578 : :
4579 [ # # ]: 0 : tp->rcv_ooopack += max_t(u16, 1, skb_shinfo(skb)->gso_segs);
4580 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPOFOQUEUE);
4581 : 0 : seq = TCP_SKB_CB(skb)->seq;
4582 : 0 : end_seq = TCP_SKB_CB(skb)->end_seq;
4583 : :
4584 : 0 : p = &tp->out_of_order_queue.rb_node;
4585 [ # # ]: 0 : if (RB_EMPTY_ROOT(&tp->out_of_order_queue)) {
4586 : : /* Initial out of order segment, build 1 SACK. */
4587 [ # # ]: 0 : if (tcp_is_sack(tp)) {
4588 : 0 : tp->rx_opt.num_sacks = 1;
4589 : 0 : tp->selective_acks[0].start_seq = seq;
4590 : 0 : tp->selective_acks[0].end_seq = end_seq;
4591 : : }
4592 : 0 : rb_link_node(&skb->rbnode, NULL, p);
4593 : 0 : rb_insert_color(&skb->rbnode, &tp->out_of_order_queue);
4594 : 0 : tp->ooo_last_skb = skb;
4595 : 0 : goto end;
4596 : : }
4597 : :
4598 : : /* In the typical case, we are adding an skb to the end of the list.
4599 : : * Use of ooo_last_skb avoids the O(Log(N)) rbtree lookup.
4600 : : */
4601 [ # # ]: 0 : if (tcp_ooo_try_coalesce(sk, tp->ooo_last_skb,
4602 : : skb, &fragstolen)) {
4603 : : coalesce_done:
4604 : : /* For non sack flows, do not grow window to force DUPACK
4605 : : * and trigger fast retransmit.
4606 : : */
4607 [ # # ]: 0 : if (tcp_is_sack(tp))
4608 : 0 : tcp_grow_window(sk, skb);
4609 : 0 : kfree_skb_partial(skb, fragstolen);
4610 : : skb = NULL;
4611 : 0 : goto add_sack;
4612 : : }
4613 : : /* Can avoid an rbtree lookup if we are adding skb after ooo_last_skb */
4614 [ # # ]: 0 : if (!before(seq, TCP_SKB_CB(tp->ooo_last_skb)->end_seq)) {
4615 : 0 : parent = &tp->ooo_last_skb->rbnode;
4616 : 0 : p = &parent->rb_right;
4617 : 0 : goto insert;
4618 : : }
4619 : :
4620 : : /* Find place to insert this segment. Handle overlaps on the way. */
4621 : : parent = NULL;
4622 [ # # ]: 0 : while (*p) {
4623 : : parent = *p;
4624 [ # # ]: 0 : skb1 = rb_to_skb(parent);
4625 [ # # ]: 0 : if (before(seq, TCP_SKB_CB(skb1)->seq)) {
4626 : 0 : p = &parent->rb_left;
4627 : 0 : continue;
4628 : : }
4629 [ # # ]: 0 : if (before(seq, TCP_SKB_CB(skb1)->end_seq)) {
4630 [ # # ]: 0 : if (!after(end_seq, TCP_SKB_CB(skb1)->end_seq)) {
4631 : : /* All the bits are present. Drop. */
4632 : 0 : NET_INC_STATS(sock_net(sk),
4633 : : LINUX_MIB_TCPOFOMERGE);
4634 : : tcp_drop(sk, skb);
4635 : : skb = NULL;
4636 : 0 : tcp_dsack_set(sk, seq, end_seq);
4637 : 0 : goto add_sack;
4638 : : }
4639 [ # # ]: 0 : if (after(seq, TCP_SKB_CB(skb1)->seq)) {
4640 : : /* Partial overlap. */
4641 : 0 : tcp_dsack_set(sk, seq, TCP_SKB_CB(skb1)->end_seq);
4642 : : } else {
4643 : : /* skb's seq == skb1's seq and skb covers skb1.
4644 : : * Replace skb1 with skb.
4645 : : */
4646 : 0 : rb_replace_node(&skb1->rbnode, &skb->rbnode,
4647 : : &tp->out_of_order_queue);
4648 : 0 : tcp_dsack_extend(sk,
4649 : : TCP_SKB_CB(skb1)->seq,
4650 : : TCP_SKB_CB(skb1)->end_seq);
4651 : 0 : NET_INC_STATS(sock_net(sk),
4652 : : LINUX_MIB_TCPOFOMERGE);
4653 : : tcp_drop(sk, skb1);
4654 : : goto merge_right;
4655 : : }
4656 [ # # ]: 0 : } else if (tcp_ooo_try_coalesce(sk, skb1,
4657 : : skb, &fragstolen)) {
4658 : : goto coalesce_done;
4659 : : }
4660 : 0 : p = &parent->rb_right;
4661 : : }
4662 : : insert:
4663 : : /* Insert segment into RB tree. */
4664 : 0 : rb_link_node(&skb->rbnode, parent, p);
4665 : 0 : rb_insert_color(&skb->rbnode, &tp->out_of_order_queue);
4666 : :
4667 : : merge_right:
4668 : : /* Remove other segments covered by skb. */
4669 [ # # # # ]: 0 : while ((skb1 = skb_rb_next(skb)) != NULL) {
4670 [ # # ]: 0 : if (!after(end_seq, TCP_SKB_CB(skb1)->seq))
4671 : : break;
4672 [ # # ]: 0 : if (before(end_seq, TCP_SKB_CB(skb1)->end_seq)) {
4673 : 0 : tcp_dsack_extend(sk, TCP_SKB_CB(skb1)->seq,
4674 : : end_seq);
4675 : 0 : break;
4676 : : }
4677 : 0 : rb_erase(&skb1->rbnode, &tp->out_of_order_queue);
4678 : 0 : tcp_dsack_extend(sk, TCP_SKB_CB(skb1)->seq,
4679 : : TCP_SKB_CB(skb1)->end_seq);
4680 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPOFOMERGE);
4681 : : tcp_drop(sk, skb1);
4682 : : }
4683 : : /* If there is no skb after us, we are the last_skb ! */
4684 [ # # ]: 0 : if (!skb1)
4685 : 0 : tp->ooo_last_skb = skb;
4686 : :
4687 : : add_sack:
4688 [ # # ]: 0 : if (tcp_is_sack(tp))
4689 : 0 : tcp_sack_new_ofo_skb(sk, seq, end_seq);
4690 : : end:
4691 [ # # ]: 0 : if (skb) {
4692 : : /* For non sack flows, do not grow window to force DUPACK
4693 : : * and trigger fast retransmit.
4694 : : */
4695 [ # # ]: 0 : if (tcp_is_sack(tp))
4696 : 0 : tcp_grow_window(sk, skb);
4697 : 0 : skb_condense(skb);
4698 : 0 : skb_set_owner_r(skb, sk);
4699 : : }
4700 : : }
4701 : :
4702 : 6588 : static int __must_check tcp_queue_rcv(struct sock *sk, struct sk_buff *skb,
4703 : : bool *fragstolen)
4704 : : {
4705 : : int eaten;
4706 : 6588 : struct sk_buff *tail = skb_peek_tail(&sk->sk_receive_queue);
4707 : :
4708 : : eaten = (tail &&
4709 : 4098 : tcp_try_coalesce(sk, tail,
4710 [ + + + + ]: 10686 : skb, fragstolen)) ? 1 : 0;
4711 : 6588 : tcp_rcv_nxt_update(tcp_sk(sk), TCP_SKB_CB(skb)->end_seq);
4712 [ + + ]: 6588 : if (!eaten) {
4713 : : __skb_queue_tail(&sk->sk_receive_queue, skb);
4714 : 2606 : skb_set_owner_r(skb, sk);
4715 : : }
4716 : 6588 : return eaten;
4717 : : }
4718 : :
4719 : 0 : int tcp_send_rcvq(struct sock *sk, struct msghdr *msg, size_t size)
4720 : : {
4721 : : struct sk_buff *skb;
4722 : 0 : int err = -ENOMEM;
4723 : : int data_len = 0;
4724 : : bool fragstolen;
4725 : :
4726 [ # # ]: 0 : if (size == 0)
4727 : : return 0;
4728 : :
4729 [ # # ]: 0 : if (size > PAGE_SIZE) {
4730 : 0 : int npages = min_t(size_t, size >> PAGE_SHIFT, MAX_SKB_FRAGS);
4731 : :
4732 : 0 : data_len = npages << PAGE_SHIFT;
4733 : 0 : size = data_len + (size & ~PAGE_MASK);
4734 : : }
4735 : 0 : skb = alloc_skb_with_frags(size - data_len, data_len,
4736 : : PAGE_ALLOC_COSTLY_ORDER,
4737 : : &err, sk->sk_allocation);
4738 [ # # ]: 0 : if (!skb)
4739 : : goto err;
4740 : :
4741 : 0 : skb_put(skb, size - data_len);
4742 : 0 : skb->data_len = data_len;
4743 : 0 : skb->len = size;
4744 : :
4745 [ # # ]: 0 : if (tcp_try_rmem_schedule(sk, skb, skb->truesize)) {
4746 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVQDROP);
4747 : : goto err_free;
4748 : : }
4749 : :
4750 : 0 : err = skb_copy_datagram_from_iter(skb, 0, &msg->msg_iter, size);
4751 [ # # ]: 0 : if (err)
4752 : : goto err_free;
4753 : :
4754 : 0 : TCP_SKB_CB(skb)->seq = tcp_sk(sk)->rcv_nxt;
4755 : 0 : TCP_SKB_CB(skb)->end_seq = TCP_SKB_CB(skb)->seq + size;
4756 : 0 : TCP_SKB_CB(skb)->ack_seq = tcp_sk(sk)->snd_una - 1;
4757 : :
4758 [ # # ]: 0 : if (tcp_queue_rcv(sk, skb, &fragstolen)) {
4759 [ # # # # ]: 0 : WARN_ON_ONCE(fragstolen); /* should not happen */
4760 : 0 : __kfree_skb(skb);
4761 : : }
4762 : 0 : return size;
4763 : :
4764 : : err_free:
4765 : 0 : kfree_skb(skb);
4766 : : err:
4767 : 0 : return err;
4768 : :
4769 : : }
4770 : :
4771 : 6588 : void tcp_data_ready(struct sock *sk)
4772 : : {
4773 : : const struct tcp_sock *tp = tcp_sk(sk);
4774 : 6588 : int avail = tp->rcv_nxt - tp->copied_seq;
4775 : :
4776 [ - + # # : 6588 : if (avail < sk->sk_rcvlowat && !tcp_rmem_pressure(sk) &&
# # ]
4777 : : !sock_flag(sk, SOCK_DONE))
4778 : 6588 : return;
4779 : :
4780 : 6588 : sk->sk_data_ready(sk);
4781 : : }
4782 : :
4783 : 870 : static void tcp_data_queue(struct sock *sk, struct sk_buff *skb)
4784 : : {
4785 : : struct tcp_sock *tp = tcp_sk(sk);
4786 : : bool fragstolen;
4787 : : int eaten;
4788 : :
4789 [ + + ]: 870 : if (TCP_SKB_CB(skb)->seq == TCP_SKB_CB(skb)->end_seq) {
4790 : 2 : __kfree_skb(skb);
4791 : 2 : return;
4792 : : }
4793 : 868 : skb_dst_drop(skb);
4794 : 868 : __skb_pull(skb, tcp_hdr(skb)->doff * 4);
4795 : :
4796 : 868 : tp->rx_opt.dsack = 0;
4797 : :
4798 : : /* Queue data for delivery to the user.
4799 : : * Packets in sequence go to the receive queue.
4800 : : * Out of sequence packets to the out_of_order_queue.
4801 : : */
4802 [ + + ]: 868 : if (TCP_SKB_CB(skb)->seq == tp->rcv_nxt) {
4803 [ - + ]: 866 : if (tcp_receive_window(tp) == 0) {
4804 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPZEROWINDOWDROP);
4805 : : goto out_of_window;
4806 : : }
4807 : :
4808 : : /* Ok. In sequence. In window. */
4809 : : queue_and_out:
4810 [ + + ]: 866 : if (skb_queue_len(&sk->sk_receive_queue) == 0)
4811 : 20 : sk_forced_mem_schedule(sk, skb->truesize);
4812 [ - + ]: 846 : else if (tcp_try_rmem_schedule(sk, skb, skb->truesize)) {
4813 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVQDROP);
4814 : 0 : sk->sk_data_ready(sk);
4815 : 0 : goto drop;
4816 : : }
4817 : :
4818 : 866 : eaten = tcp_queue_rcv(sk, skb, &fragstolen);
4819 [ + + ]: 866 : if (skb->len)
4820 : 864 : tcp_event_data_recv(sk, skb);
4821 [ + + ]: 866 : if (TCP_SKB_CB(skb)->tcp_flags & TCPHDR_FIN)
4822 : 2 : tcp_fin(sk);
4823 : :
4824 [ - + ]: 866 : if (!RB_EMPTY_ROOT(&tp->out_of_order_queue)) {
4825 : 0 : tcp_ofo_queue(sk);
4826 : :
4827 : : /* RFC5681. 4.2. SHOULD send immediate ACK, when
4828 : : * gap in queue is filled.
4829 : : */
4830 [ # # ]: 0 : if (RB_EMPTY_ROOT(&tp->out_of_order_queue))
4831 : 0 : inet_csk(sk)->icsk_ack.pending |= ICSK_ACK_NOW;
4832 : : }
4833 : :
4834 [ - + ]: 866 : if (tp->rx_opt.num_sacks)
4835 : 0 : tcp_sack_remove(tp);
4836 : :
4837 : 866 : tcp_fast_path_check(sk);
4838 : :
4839 [ + + ]: 866 : if (eaten > 0)
4840 : 818 : kfree_skb_partial(skb, fragstolen);
4841 [ + - ]: 866 : if (!sock_flag(sk, SOCK_DEAD))
4842 : 866 : tcp_data_ready(sk);
4843 : : return;
4844 : : }
4845 : :
4846 [ + - ]: 4 : if (!after(TCP_SKB_CB(skb)->end_seq, tp->rcv_nxt)) {
4847 : 2 : tcp_rcv_spurious_retrans(sk, skb);
4848 : : /* A retransmit, 2nd most common case. Force an immediate ack. */
4849 : 4 : NET_INC_STATS(sock_net(sk), LINUX_MIB_DELAYEDACKLOST);
4850 : 2 : tcp_dsack_set(sk, TCP_SKB_CB(skb)->seq, TCP_SKB_CB(skb)->end_seq);
4851 : :
4852 : : out_of_window:
4853 : : tcp_enter_quickack_mode(sk, TCP_MAX_QUICKACKS);
4854 : : inet_csk_schedule_ack(sk);
4855 : : drop:
4856 : : tcp_drop(sk, skb);
4857 : : return;
4858 : : }
4859 : :
4860 : : /* Out of window. F.e. zero window probe. */
4861 [ # # ]: 0 : if (!before(TCP_SKB_CB(skb)->seq, tp->rcv_nxt + tcp_receive_window(tp)))
4862 : : goto out_of_window;
4863 : :
4864 [ # # ]: 0 : if (before(TCP_SKB_CB(skb)->seq, tp->rcv_nxt)) {
4865 : : /* Partial packet, seq < rcv_next < end_seq */
4866 : 0 : tcp_dsack_set(sk, TCP_SKB_CB(skb)->seq, tp->rcv_nxt);
4867 : :
4868 : : /* If window is closed, drop tail of packet. But after
4869 : : * remembering D-SACK for its head made in previous line.
4870 : : */
4871 [ # # ]: 0 : if (!tcp_receive_window(tp)) {
4872 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPZEROWINDOWDROP);
4873 : : goto out_of_window;
4874 : : }
4875 : : goto queue_and_out;
4876 : : }
4877 : :
4878 : 0 : tcp_data_queue_ofo(sk, skb);
4879 : : }
4880 : :
4881 : 0 : static struct sk_buff *tcp_skb_next(struct sk_buff *skb, struct sk_buff_head *list)
4882 : : {
4883 [ # # ]: 0 : if (list)
4884 [ # # ]: 0 : return !skb_queue_is_last(list, skb) ? skb->next : NULL;
4885 : :
4886 [ # # ]: 0 : return skb_rb_next(skb);
4887 : : }
4888 : :
4889 : 0 : static struct sk_buff *tcp_collapse_one(struct sock *sk, struct sk_buff *skb,
4890 : : struct sk_buff_head *list,
4891 : : struct rb_root *root)
4892 : : {
4893 : 0 : struct sk_buff *next = tcp_skb_next(skb, list);
4894 : :
4895 [ # # ]: 0 : if (list)
4896 : : __skb_unlink(skb, list);
4897 : : else
4898 : 0 : rb_erase(&skb->rbnode, root);
4899 : :
4900 : 0 : __kfree_skb(skb);
4901 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVCOLLAPSED);
4902 : :
4903 : 0 : return next;
4904 : : }
4905 : :
4906 : : /* Insert skb into rb tree, ordered by TCP_SKB_CB(skb)->seq */
4907 : 508 : void tcp_rbtree_insert(struct rb_root *root, struct sk_buff *skb)
4908 : : {
4909 : 508 : struct rb_node **p = &root->rb_node;
4910 : : struct rb_node *parent = NULL;
4911 : : struct sk_buff *skb1;
4912 : :
4913 [ + + ]: 1134 : while (*p) {
4914 : : parent = *p;
4915 [ + - ]: 118 : skb1 = rb_to_skb(parent);
4916 [ - + ]: 236 : if (before(TCP_SKB_CB(skb)->seq, TCP_SKB_CB(skb1)->seq))
4917 : 0 : p = &parent->rb_left;
4918 : : else
4919 : 118 : p = &parent->rb_right;
4920 : : }
4921 : 508 : rb_link_node(&skb->rbnode, parent, p);
4922 : 508 : rb_insert_color(&skb->rbnode, root);
4923 : 508 : }
4924 : :
4925 : : /* Collapse contiguous sequence of skbs head..tail with
4926 : : * sequence numbers start..end.
4927 : : *
4928 : : * If tail is NULL, this means until the end of the queue.
4929 : : *
4930 : : * Segments with FIN/SYN are not collapsed (only because this
4931 : : * simplifies code)
4932 : : */
4933 : : static void
4934 : 0 : tcp_collapse(struct sock *sk, struct sk_buff_head *list, struct rb_root *root,
4935 : : struct sk_buff *head, struct sk_buff *tail, u32 start, u32 end)
4936 : : {
4937 : : struct sk_buff *skb = head, *n;
4938 : : struct sk_buff_head tmp;
4939 : : bool end_of_skbs;
4940 : :
4941 : : /* First, check that queue is collapsible and find
4942 : : * the point where collapsing can be useful.
4943 : : */
4944 : : restart:
4945 [ # # ]: 0 : for (end_of_skbs = true; skb != NULL && skb != tail; skb = n) {
4946 : 0 : n = tcp_skb_next(skb, list);
4947 : :
4948 : : /* No new bits? It is possible on ofo queue. */
4949 [ # # ]: 0 : if (!before(start, TCP_SKB_CB(skb)->end_seq)) {
4950 : 0 : skb = tcp_collapse_one(sk, skb, list, root);
4951 [ # # ]: 0 : if (!skb)
4952 : : break;
4953 : : goto restart;
4954 : : }
4955 : :
4956 : : /* The first skb to collapse is:
4957 : : * - not SYN/FIN and
4958 : : * - bloated or contains data before "start" or
4959 : : * overlaps to the next one.
4960 : : */
4961 [ # # # # ]: 0 : if (!(TCP_SKB_CB(skb)->tcp_flags & (TCPHDR_SYN | TCPHDR_FIN)) &&
4962 [ # # ]: 0 : (tcp_win_from_space(sk, skb->truesize) > skb->len ||
4963 : 0 : before(TCP_SKB_CB(skb)->seq, start))) {
4964 : : end_of_skbs = false;
4965 : : break;
4966 : : }
4967 : :
4968 [ # # # # ]: 0 : if (n && n != tail &&
4969 : 0 : TCP_SKB_CB(skb)->end_seq != TCP_SKB_CB(n)->seq) {
4970 : : end_of_skbs = false;
4971 : : break;
4972 : : }
4973 : :
4974 : : /* Decided to skip this, advance start seq. */
4975 : : start = TCP_SKB_CB(skb)->end_seq;
4976 : : }
4977 [ # # # # ]: 0 : if (end_of_skbs ||
4978 : 0 : (TCP_SKB_CB(skb)->tcp_flags & (TCPHDR_SYN | TCPHDR_FIN)))
4979 : 0 : return;
4980 : :
4981 : : __skb_queue_head_init(&tmp);
4982 : :
4983 [ # # ]: 0 : while (before(start, end)) {
4984 : 0 : int copy = min_t(int, SKB_MAX_ORDER(0, 0), end - start);
4985 : : struct sk_buff *nskb;
4986 : :
4987 : 0 : nskb = alloc_skb(copy, GFP_ATOMIC);
4988 [ # # ]: 0 : if (!nskb)
4989 : : break;
4990 : :
4991 : 0 : memcpy(nskb->cb, skb->cb, sizeof(skb->cb));
4992 : : #ifdef CONFIG_TLS_DEVICE
4993 : : nskb->decrypted = skb->decrypted;
4994 : : #endif
4995 : 0 : TCP_SKB_CB(nskb)->seq = TCP_SKB_CB(nskb)->end_seq = start;
4996 [ # # ]: 0 : if (list)
4997 : : __skb_queue_before(list, skb, nskb);
4998 : : else
4999 : : __skb_queue_tail(&tmp, nskb); /* defer rbtree insertion */
5000 : 0 : skb_set_owner_r(nskb, sk);
5001 : :
5002 : : /* Copy data, releasing collapsed skbs. */
5003 [ # # ]: 0 : while (copy > 0) {
5004 : 0 : int offset = start - TCP_SKB_CB(skb)->seq;
5005 : 0 : int size = TCP_SKB_CB(skb)->end_seq - start;
5006 : :
5007 [ # # ]: 0 : BUG_ON(offset < 0);
5008 [ # # ]: 0 : if (size > 0) {
5009 : 0 : size = min(copy, size);
5010 [ # # ]: 0 : if (skb_copy_bits(skb, offset, skb_put(nskb, size), size))
5011 : 0 : BUG();
5012 : 0 : TCP_SKB_CB(nskb)->end_seq += size;
5013 : 0 : copy -= size;
5014 : 0 : start += size;
5015 : : }
5016 [ # # ]: 0 : if (!before(start, TCP_SKB_CB(skb)->end_seq)) {
5017 : 0 : skb = tcp_collapse_one(sk, skb, list, root);
5018 [ # # ]: 0 : if (!skb ||
5019 [ # # ]: 0 : skb == tail ||
5020 : 0 : (TCP_SKB_CB(skb)->tcp_flags & (TCPHDR_SYN | TCPHDR_FIN)))
5021 : : goto end;
5022 : : #ifdef CONFIG_TLS_DEVICE
5023 : : if (skb->decrypted != nskb->decrypted)
5024 : : goto end;
5025 : : #endif
5026 : : }
5027 : : }
5028 : : }
5029 : : end:
5030 [ # # ]: 0 : skb_queue_walk_safe(&tmp, skb, n)
5031 : 0 : tcp_rbtree_insert(root, skb);
5032 : : }
5033 : :
5034 : : /* Collapse ofo queue. Algorithm: select contiguous sequence of skbs
5035 : : * and tcp_collapse() them until all the queue is collapsed.
5036 : : */
5037 : 0 : static void tcp_collapse_ofo_queue(struct sock *sk)
5038 : : {
5039 : : struct tcp_sock *tp = tcp_sk(sk);
5040 : : u32 range_truesize, sum_tiny = 0;
5041 : : struct sk_buff *skb, *head;
5042 : : u32 start, end;
5043 : :
5044 [ # # ]: 0 : skb = skb_rb_first(&tp->out_of_order_queue);
5045 : : new_range:
5046 [ # # ]: 0 : if (!skb) {
5047 [ # # ]: 0 : tp->ooo_last_skb = skb_rb_last(&tp->out_of_order_queue);
5048 : 0 : return;
5049 : : }
5050 : 0 : start = TCP_SKB_CB(skb)->seq;
5051 : 0 : end = TCP_SKB_CB(skb)->end_seq;
5052 : 0 : range_truesize = skb->truesize;
5053 : :
5054 : : for (head = skb;;) {
5055 [ # # ]: 0 : skb = skb_rb_next(skb);
5056 : :
5057 : : /* Range is terminated when we see a gap or when
5058 : : * we are at the queue end.
5059 : : */
5060 [ # # # # ]: 0 : if (!skb ||
5061 [ # # ]: 0 : after(TCP_SKB_CB(skb)->seq, end) ||
5062 : 0 : before(TCP_SKB_CB(skb)->end_seq, start)) {
5063 : : /* Do not attempt collapsing tiny skbs */
5064 [ # # # # ]: 0 : if (range_truesize != head->truesize ||
5065 : 0 : end - start >= SKB_WITH_OVERHEAD(SK_MEM_QUANTUM)) {
5066 : 0 : tcp_collapse(sk, NULL, &tp->out_of_order_queue,
5067 : : head, skb, start, end);
5068 : : } else {
5069 : 0 : sum_tiny += range_truesize;
5070 [ # # ]: 0 : if (sum_tiny > sk->sk_rcvbuf >> 3)
5071 : : return;
5072 : : }
5073 : : goto new_range;
5074 : : }
5075 : :
5076 : 0 : range_truesize += skb->truesize;
5077 [ # # ]: 0 : if (unlikely(before(TCP_SKB_CB(skb)->seq, start)))
5078 : : start = TCP_SKB_CB(skb)->seq;
5079 [ # # ]: 0 : if (after(TCP_SKB_CB(skb)->end_seq, end))
5080 : : end = TCP_SKB_CB(skb)->end_seq;
5081 : : }
5082 : : }
5083 : :
5084 : : /*
5085 : : * Clean the out-of-order queue to make room.
5086 : : * We drop high sequences packets to :
5087 : : * 1) Let a chance for holes to be filled.
5088 : : * 2) not add too big latencies if thousands of packets sit there.
5089 : : * (But if application shrinks SO_RCVBUF, we could still end up
5090 : : * freeing whole queue here)
5091 : : * 3) Drop at least 12.5 % of sk_rcvbuf to avoid malicious attacks.
5092 : : *
5093 : : * Return true if queue has shrunk.
5094 : : */
5095 : 0 : static bool tcp_prune_ofo_queue(struct sock *sk)
5096 : : {
5097 : : struct tcp_sock *tp = tcp_sk(sk);
5098 : : struct rb_node *node, *prev;
5099 : : int goal;
5100 : :
5101 [ # # ]: 0 : if (RB_EMPTY_ROOT(&tp->out_of_order_queue))
5102 : : return false;
5103 : :
5104 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_OFOPRUNED);
5105 : 0 : goal = sk->sk_rcvbuf >> 3;
5106 : 0 : node = &tp->ooo_last_skb->rbnode;
5107 : : do {
5108 : 0 : prev = rb_prev(node);
5109 : 0 : rb_erase(node, &tp->out_of_order_queue);
5110 [ # # ]: 0 : goal -= rb_to_skb(node)->truesize;
5111 [ # # ]: 0 : tcp_drop(sk, rb_to_skb(node));
5112 [ # # ]: 0 : if (!prev || goal <= 0) {
5113 : 0 : sk_mem_reclaim(sk);
5114 [ # # # # ]: 0 : if (atomic_read(&sk->sk_rmem_alloc) <= sk->sk_rcvbuf &&
5115 : 0 : !tcp_under_memory_pressure(sk))
5116 : : break;
5117 : 0 : goal = sk->sk_rcvbuf >> 3;
5118 : : }
5119 : : node = prev;
5120 [ # # ]: 0 : } while (node);
5121 [ # # ]: 0 : tp->ooo_last_skb = rb_to_skb(prev);
5122 : :
5123 : : /* Reset SACK state. A conforming SACK implementation will
5124 : : * do the same at a timeout based retransmit. When a connection
5125 : : * is in a sad state like this, we care only about integrity
5126 : : * of the connection not performance.
5127 : : */
5128 [ # # ]: 0 : if (tp->rx_opt.sack_ok)
5129 : : tcp_sack_reset(&tp->rx_opt);
5130 : : return true;
5131 : : }
5132 : :
5133 : : /* Reduce allocated memory if we can, trying to get
5134 : : * the socket within its memory limits again.
5135 : : *
5136 : : * Return less than zero if we should start dropping frames
5137 : : * until the socket owning process reads some of the data
5138 : : * to stabilize the situation.
5139 : : */
5140 : 0 : static int tcp_prune_queue(struct sock *sk)
5141 : : {
5142 : : struct tcp_sock *tp = tcp_sk(sk);
5143 : :
5144 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_PRUNECALLED);
5145 : :
5146 [ # # ]: 0 : if (atomic_read(&sk->sk_rmem_alloc) >= sk->sk_rcvbuf)
5147 : 0 : tcp_clamp_window(sk);
5148 [ # # ]: 0 : else if (tcp_under_memory_pressure(sk))
5149 : 0 : tp->rcv_ssthresh = min(tp->rcv_ssthresh, 4U * tp->advmss);
5150 : :
5151 [ # # ]: 0 : if (atomic_read(&sk->sk_rmem_alloc) <= sk->sk_rcvbuf)
5152 : : return 0;
5153 : :
5154 : 0 : tcp_collapse_ofo_queue(sk);
5155 [ # # ]: 0 : if (!skb_queue_empty(&sk->sk_receive_queue))
5156 : 0 : tcp_collapse(sk, &sk->sk_receive_queue, NULL,
5157 : : skb_peek(&sk->sk_receive_queue),
5158 : : NULL,
5159 : : tp->copied_seq, tp->rcv_nxt);
5160 : 0 : sk_mem_reclaim(sk);
5161 : :
5162 [ # # ]: 0 : if (atomic_read(&sk->sk_rmem_alloc) <= sk->sk_rcvbuf)
5163 : : return 0;
5164 : :
5165 : : /* Collapsing did not help, destructive actions follow.
5166 : : * This must not ever occur. */
5167 : :
5168 : 0 : tcp_prune_ofo_queue(sk);
5169 : :
5170 [ # # ]: 0 : if (atomic_read(&sk->sk_rmem_alloc) <= sk->sk_rcvbuf)
5171 : : return 0;
5172 : :
5173 : : /* If we are really being abused, tell the caller to silently
5174 : : * drop receive data on the floor. It will get retransmitted
5175 : : * and hopefully then we'll have sufficient space.
5176 : : */
5177 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_RCVPRUNED);
5178 : :
5179 : : /* Massive buffer overcommit. */
5180 : 0 : tp->pred_flags = 0;
5181 : 0 : return -1;
5182 : : }
5183 : :
5184 : 0 : static bool tcp_should_expand_sndbuf(const struct sock *sk)
5185 : : {
5186 : : const struct tcp_sock *tp = tcp_sk(sk);
5187 : :
5188 : : /* If the user specified a specific send buffer setting, do
5189 : : * not modify it.
5190 : : */
5191 [ # # ]: 0 : if (sk->sk_userlocks & SOCK_SNDBUF_LOCK)
5192 : : return false;
5193 : :
5194 : : /* If we are under global TCP memory pressure, do not expand. */
5195 [ # # ]: 0 : if (tcp_under_memory_pressure(sk))
5196 : : return false;
5197 : :
5198 : : /* If we are under soft global TCP memory pressure, do not expand. */
5199 [ # # ]: 0 : if (sk_memory_allocated(sk) >= sk_prot_mem_limits(sk, 0))
5200 : : return false;
5201 : :
5202 : : /* If we filled the congestion window, do not expand. */
5203 [ # # ]: 0 : if (tcp_packets_in_flight(tp) >= tp->snd_cwnd)
5204 : : return false;
5205 : :
5206 : 0 : return true;
5207 : : }
5208 : :
5209 : : /* When incoming ACK allowed to free some skb from write_queue,
5210 : : * we remember this event in flag SOCK_QUEUE_SHRUNK and wake up socket
5211 : : * on the exit from tcp input handler.
5212 : : *
5213 : : * PROBLEM: sndbuf expansion does not work well with largesend.
5214 : : */
5215 : 0 : static void tcp_new_space(struct sock *sk)
5216 : : {
5217 : : struct tcp_sock *tp = tcp_sk(sk);
5218 : :
5219 [ # # ]: 0 : if (tcp_should_expand_sndbuf(sk)) {
5220 : 0 : tcp_sndbuf_expand(sk);
5221 : 0 : tp->snd_cwnd_stamp = tcp_jiffies32;
5222 : : }
5223 : :
5224 : 0 : sk->sk_write_space(sk);
5225 : 0 : }
5226 : :
5227 : 1322 : static void tcp_check_space(struct sock *sk)
5228 : : {
5229 [ + + ]: 1322 : if (sock_flag(sk, SOCK_QUEUE_SHRUNK)) {
5230 : : sock_reset_flag(sk, SOCK_QUEUE_SHRUNK);
5231 : : /* pairs with tcp_poll() */
5232 : 454 : smp_mb();
5233 [ + + - + ]: 906 : if (sk->sk_socket &&
5234 : : test_bit(SOCK_NOSPACE, &sk->sk_socket->flags)) {
5235 : 0 : tcp_new_space(sk);
5236 [ # # ]: 0 : if (!test_bit(SOCK_NOSPACE, &sk->sk_socket->flags))
5237 : 0 : tcp_chrono_stop(sk, TCP_CHRONO_SNDBUF_LIMITED);
5238 : : }
5239 : : }
5240 : 1322 : }
5241 : :
5242 : : static inline void tcp_data_snd_check(struct sock *sk)
5243 : : {
5244 : 1322 : tcp_push_pending_frames(sk);
5245 : 1322 : tcp_check_space(sk);
5246 : : }
5247 : :
5248 : : /*
5249 : : * Check if sending an ack is needed.
5250 : : */
5251 : 6588 : static void __tcp_ack_snd_check(struct sock *sk, int ofo_possible)
5252 : : {
5253 : : struct tcp_sock *tp = tcp_sk(sk);
5254 : : unsigned long rtt, delay;
5255 : :
5256 : : /* More than one full frame received... */
5257 [ + + + - ]: 9384 : if (((tp->rcv_nxt - tp->rcv_wup) > inet_csk(sk)->icsk_ack.rcv_mss &&
5258 : : /* ... and right edge of window advances far enough.
5259 : : * (tcp_recvmsg() will send ACK otherwise).
5260 : : * If application uses SO_RCVLOWAT, we want send ack now if
5261 : : * we have not received enough bytes to satisfy the condition.
5262 : : */
5263 [ + + ]: 5592 : (tp->rcv_nxt - tp->copied_seq < sk->sk_rcvlowat ||
5264 [ + + ]: 7752 : __tcp_select_window(sk) >= tp->rcv_wnd)) ||
5265 : : /* We ACK each frame or... */
5266 [ - + ]: 8094 : tcp_in_quickack_mode(sk) ||
5267 : : /* Protocol state mandates a one-time immediate ACK */
5268 : 3138 : inet_csk(sk)->icsk_ack.pending & ICSK_ACK_NOW) {
5269 : : send_now:
5270 : 3450 : tcp_send_ack(sk);
5271 : 3450 : return;
5272 : : }
5273 : :
5274 [ + + + - ]: 3602 : if (!ofo_possible || RB_EMPTY_ROOT(&tp->out_of_order_queue)) {
5275 : 3138 : tcp_send_delayed_ack(sk);
5276 : 3138 : return;
5277 : : }
5278 : :
5279 [ # # # # ]: 0 : if (!tcp_is_sack(tp) ||
5280 : 0 : tp->compressed_ack >= sock_net(sk)->ipv4.sysctl_tcp_comp_sack_nr)
5281 : : goto send_now;
5282 : :
5283 [ # # ]: 0 : if (tp->compressed_ack_rcv_nxt != tp->rcv_nxt) {
5284 : 0 : tp->compressed_ack_rcv_nxt = tp->rcv_nxt;
5285 [ # # ]: 0 : if (tp->compressed_ack > TCP_FASTRETRANS_THRESH)
5286 : 0 : NET_ADD_STATS(sock_net(sk), LINUX_MIB_TCPACKCOMPRESSED,
5287 : : tp->compressed_ack - TCP_FASTRETRANS_THRESH);
5288 : 0 : tp->compressed_ack = 0;
5289 : : }
5290 : :
5291 [ # # ]: 0 : if (++tp->compressed_ack <= TCP_FASTRETRANS_THRESH)
5292 : : goto send_now;
5293 : :
5294 [ # # ]: 0 : if (hrtimer_is_queued(&tp->compressed_ack_timer))
5295 : : return;
5296 : :
5297 : : /* compress ack timer : 5 % of rtt, but no more than tcp_comp_sack_delay_ns */
5298 : :
5299 : 0 : rtt = tp->rcv_rtt_est.rtt_us;
5300 [ # # # # ]: 0 : if (tp->srtt_us && tp->srtt_us < rtt)
5301 : : rtt = tp->srtt_us;
5302 : :
5303 : 0 : delay = min_t(unsigned long, sock_net(sk)->ipv4.sysctl_tcp_comp_sack_delay_ns,
5304 : : rtt * (NSEC_PER_USEC >> 3)/20);
5305 : : sock_hold(sk);
5306 : 0 : hrtimer_start(&tp->compressed_ack_timer, ns_to_ktime(delay),
5307 : : HRTIMER_MODE_REL_PINNED_SOFT);
5308 : : }
5309 : :
5310 : : static inline void tcp_ack_snd_check(struct sock *sk)
5311 : : {
5312 [ - + + + ]: 870 : if (!inet_csk_ack_scheduled(sk)) {
5313 : : /* We sent a data segment already. */
5314 : : return;
5315 : : }
5316 : 866 : __tcp_ack_snd_check(sk, 1);
5317 : : }
5318 : :
5319 : : /*
5320 : : * This routine is only called when we have urgent data
5321 : : * signaled. Its the 'slow' part of tcp_urg. It could be
5322 : : * moved inline now as tcp_urg is only called from one
5323 : : * place. We handle URGent data wrong. We have to - as
5324 : : * BSD still doesn't use the correction from RFC961.
5325 : : * For 1003.1g we should support a new option TCP_STDURG to permit
5326 : : * either form (or just set the sysctl tcp_stdurg).
5327 : : */
5328 : :
5329 : 0 : static void tcp_check_urg(struct sock *sk, const struct tcphdr *th)
5330 : : {
5331 : : struct tcp_sock *tp = tcp_sk(sk);
5332 : 0 : u32 ptr = ntohs(th->urg_ptr);
5333 : :
5334 [ # # # # ]: 0 : if (ptr && !sock_net(sk)->ipv4.sysctl_tcp_stdurg)
5335 : 0 : ptr--;
5336 : 0 : ptr += ntohl(th->seq);
5337 : :
5338 : : /* Ignore urgent data that we've already seen and read. */
5339 [ # # ]: 0 : if (after(tp->copied_seq, ptr))
5340 : : return;
5341 : :
5342 : : /* Do not replay urg ptr.
5343 : : *
5344 : : * NOTE: interesting situation not covered by specs.
5345 : : * Misbehaving sender may send urg ptr, pointing to segment,
5346 : : * which we already have in ofo queue. We are not able to fetch
5347 : : * such data and will stay in TCP_URG_NOTYET until will be eaten
5348 : : * by recvmsg(). Seems, we are not obliged to handle such wicked
5349 : : * situations. But it is worth to think about possibility of some
5350 : : * DoSes using some hypothetical application level deadlock.
5351 : : */
5352 [ # # ]: 0 : if (before(ptr, tp->rcv_nxt))
5353 : : return;
5354 : :
5355 : : /* Do we already have a newer (or duplicate) urgent pointer? */
5356 [ # # # # ]: 0 : if (tp->urg_data && !after(ptr, tp->urg_seq))
5357 : : return;
5358 : :
5359 : : /* Tell the world about our new urgent pointer. */
5360 : 0 : sk_send_sigurg(sk);
5361 : :
5362 : : /* We may be adding urgent data when the last byte read was
5363 : : * urgent. To do this requires some care. We cannot just ignore
5364 : : * tp->copied_seq since we would read the last urgent byte again
5365 : : * as data, nor can we alter copied_seq until this data arrives
5366 : : * or we break the semantics of SIOCATMARK (and thus sockatmark())
5367 : : *
5368 : : * NOTE. Double Dutch. Rendering to plain English: author of comment
5369 : : * above did something sort of send("A", MSG_OOB); send("B", MSG_OOB);
5370 : : * and expect that both A and B disappear from stream. This is _wrong_.
5371 : : * Though this happens in BSD with high probability, this is occasional.
5372 : : * Any application relying on this is buggy. Note also, that fix "works"
5373 : : * only in this artificial test. Insert some normal data between A and B and we will
5374 : : * decline of BSD again. Verdict: it is better to remove to trap
5375 : : * buggy users.
5376 : : */
5377 [ # # # # : 0 : if (tp->urg_seq == tp->copied_seq && tp->urg_data &&
# # ]
5378 [ # # ]: 0 : !sock_flag(sk, SOCK_URGINLINE) && tp->copied_seq != tp->rcv_nxt) {
5379 : 0 : struct sk_buff *skb = skb_peek(&sk->sk_receive_queue);
5380 : 0 : tp->copied_seq++;
5381 [ # # # # ]: 0 : if (skb && !before(tp->copied_seq, TCP_SKB_CB(skb)->end_seq)) {
5382 : : __skb_unlink(skb, &sk->sk_receive_queue);
5383 : 0 : __kfree_skb(skb);
5384 : : }
5385 : : }
5386 : :
5387 : 0 : tp->urg_data = TCP_URG_NOTYET;
5388 : : WRITE_ONCE(tp->urg_seq, ptr);
5389 : :
5390 : : /* Disable header prediction. */
5391 : 0 : tp->pred_flags = 0;
5392 : : }
5393 : :
5394 : : /* This is the 'fast' part of urgent handling. */
5395 : 942 : static void tcp_urg(struct sock *sk, struct sk_buff *skb, const struct tcphdr *th)
5396 : : {
5397 : : struct tcp_sock *tp = tcp_sk(sk);
5398 : :
5399 : : /* Check if we get a new urgent pointer - normally not. */
5400 [ - + ]: 942 : if (th->urg)
5401 : 0 : tcp_check_urg(sk, th);
5402 : :
5403 : : /* Do we wait for any urgent data? - normally not... */
5404 [ - + ]: 942 : if (tp->urg_data == TCP_URG_NOTYET) {
5405 : 0 : u32 ptr = tp->urg_seq - ntohl(th->seq) + (th->doff * 4) -
5406 : 0 : th->syn;
5407 : :
5408 : : /* Is the urgent pointer pointing into this packet? */
5409 [ # # ]: 0 : if (ptr < skb->len) {
5410 : : u8 tmp;
5411 [ # # ]: 0 : if (skb_copy_bits(skb, ptr, &tmp, 1))
5412 : 0 : BUG();
5413 : 0 : tp->urg_data = TCP_URG_VALID | tmp;
5414 [ # # ]: 0 : if (!sock_flag(sk, SOCK_DEAD))
5415 : 0 : sk->sk_data_ready(sk);
5416 : : }
5417 : : }
5418 : 942 : }
5419 : :
5420 : : /* Accept RST for rcv_nxt - 1 after a FIN.
5421 : : * When tcp connections are abruptly terminated from Mac OSX (via ^C), a
5422 : : * FIN is sent followed by a RST packet. The RST is sent with the same
5423 : : * sequence number as the FIN, and thus according to RFC 5961 a challenge
5424 : : * ACK should be sent. However, Mac OSX rate limits replies to challenge
5425 : : * ACKs on the closed socket. In addition middleboxes can drop either the
5426 : : * challenge ACK or a subsequent RST.
5427 : : */
5428 : : static bool tcp_reset_check(const struct sock *sk, const struct sk_buff *skb)
5429 : : {
5430 : : struct tcp_sock *tp = tcp_sk(sk);
5431 : :
5432 [ # # # # : 0 : return unlikely(TCP_SKB_CB(skb)->seq == (tp->rcv_nxt - 1) &&
# # # # ]
5433 : : (1 << sk->sk_state) & (TCPF_CLOSE_WAIT | TCPF_LAST_ACK |
5434 : : TCPF_CLOSING));
5435 : : }
5436 : :
5437 : : /* Does PAWS and seqno based validation of an incoming segment, flags will
5438 : : * play significant role here.
5439 : : */
5440 : 54 : static bool tcp_validate_incoming(struct sock *sk, struct sk_buff *skb,
5441 : : const struct tcphdr *th, int syn_inerr)
5442 : : {
5443 : : struct tcp_sock *tp = tcp_sk(sk);
5444 : : bool rst_seq_match = false;
5445 : :
5446 : : /* RFC1323: H1. Apply PAWS check first. */
5447 [ - + # # ]: 54 : if (tcp_fast_parse_options(sock_net(sk), skb, th, tp) &&
5448 [ # # ]: 0 : tp->rx_opt.saw_tstamp &&
5449 : 0 : tcp_paws_discard(sk, skb)) {
5450 [ # # ]: 0 : if (!th->rst) {
5451 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_PAWSESTABREJECTED);
5452 [ # # ]: 0 : if (!tcp_oow_rate_limited(sock_net(sk), skb,
5453 : : LINUX_MIB_TCPACKSKIPPEDPAWS,
5454 : : &tp->last_oow_ack_time))
5455 : 0 : tcp_send_dupack(sk, skb);
5456 : : goto discard;
5457 : : }
5458 : : /* Reset is accepted even if it did not pass PAWS. */
5459 : : }
5460 : :
5461 : : /* Step 1: check sequence number */
5462 [ - + ]: 108 : if (!tcp_sequence(tp, TCP_SKB_CB(skb)->seq, TCP_SKB_CB(skb)->end_seq)) {
5463 : : /* RFC793, page 37: "In all states except SYN-SENT, all reset
5464 : : * (RST) segments are validated by checking their SEQ-fields."
5465 : : * And page 69: "If an incoming segment is not acceptable,
5466 : : * an acknowledgment should be sent in reply (unless the RST
5467 : : * bit is set, if so drop the segment and return)".
5468 : : */
5469 [ # # ]: 0 : if (!th->rst) {
5470 [ # # ]: 0 : if (th->syn)
5471 : : goto syn_challenge;
5472 [ # # ]: 0 : if (!tcp_oow_rate_limited(sock_net(sk), skb,
5473 : : LINUX_MIB_TCPACKSKIPPEDSEQ,
5474 : : &tp->last_oow_ack_time))
5475 : 0 : tcp_send_dupack(sk, skb);
5476 [ # # ]: 0 : } else if (tcp_reset_check(sk, skb)) {
5477 : 0 : tcp_reset(sk);
5478 : : }
5479 : : goto discard;
5480 : : }
5481 : :
5482 : : /* Step 2: check RST bit */
5483 [ - + ]: 54 : if (th->rst) {
5484 : : /* RFC 5961 3.2 (extend to match against (RCV.NXT - 1) after a
5485 : : * FIN and SACK too if available):
5486 : : * If seq num matches RCV.NXT or (RCV.NXT - 1) after a FIN, or
5487 : : * the right-most SACK block,
5488 : : * then
5489 : : * RESET the connection
5490 : : * else
5491 : : * Send a challenge ACK
5492 : : */
5493 [ # # # # ]: 0 : if (TCP_SKB_CB(skb)->seq == tp->rcv_nxt ||
5494 : : tcp_reset_check(sk, skb)) {
5495 : : rst_seq_match = true;
5496 [ # # # # ]: 0 : } else if (tcp_is_sack(tp) && tp->rx_opt.num_sacks > 0) {
5497 : 0 : struct tcp_sack_block *sp = &tp->selective_acks[0];
5498 : 0 : int max_sack = sp[0].end_seq;
5499 : : int this_sack;
5500 : :
5501 [ # # ]: 0 : for (this_sack = 1; this_sack < tp->rx_opt.num_sacks;
5502 : 0 : ++this_sack) {
5503 [ # # ]: 0 : max_sack = after(sp[this_sack].end_seq,
5504 : : max_sack) ?
5505 : : sp[this_sack].end_seq : max_sack;
5506 : : }
5507 : :
5508 [ # # ]: 0 : if (TCP_SKB_CB(skb)->seq == max_sack)
5509 : : rst_seq_match = true;
5510 : : }
5511 : :
5512 [ # # ]: 0 : if (rst_seq_match)
5513 : 0 : tcp_reset(sk);
5514 : : else {
5515 : : /* Disable TFO if RST is out-of-order
5516 : : * and no data has been received
5517 : : * for current active TFO socket
5518 : : */
5519 [ # # # # : 0 : if (tp->syn_fastopen && !tp->data_segs_in &&
# # ]
5520 : 0 : sk->sk_state == TCP_ESTABLISHED)
5521 : 0 : tcp_fastopen_active_disable(sk);
5522 : 0 : tcp_send_challenge_ack(sk, skb);
5523 : : }
5524 : : goto discard;
5525 : : }
5526 : :
5527 : : /* step 3: check security and precedence [ignored] */
5528 : :
5529 : : /* step 4: Check for a SYN
5530 : : * RFC 5961 4.2 : Send a challenge ack
5531 : : */
5532 [ - + ]: 54 : if (th->syn) {
5533 : : syn_challenge:
5534 [ # # ]: 0 : if (syn_inerr)
5535 : 0 : TCP_INC_STATS(sock_net(sk), TCP_MIB_INERRS);
5536 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPSYNCHALLENGE);
5537 : 0 : tcp_send_challenge_ack(sk, skb);
5538 : 0 : goto discard;
5539 : : }
5540 : :
5541 : : return true;
5542 : :
5543 : : discard:
5544 : : tcp_drop(sk, skb);
5545 : 0 : return false;
5546 : : }
5547 : :
5548 : : /*
5549 : : * TCP receive function for the ESTABLISHED state.
5550 : : *
5551 : : * It is split into a fast path and a slow path. The fast path is
5552 : : * disabled when:
5553 : : * - A zero window was announced from us - zero window probing
5554 : : * is only handled properly in the slow path.
5555 : : * - Out of order segments arrived.
5556 : : * - Urgent data is expected.
5557 : : * - There is no buffer space left
5558 : : * - Unexpected TCP flags/window values/header lengths are received
5559 : : * (detected by checking the TCP header against pred_flags)
5560 : : * - Data is sent in both directions. Fast path only supports pure senders
5561 : : * or pure receivers (this means either the sequence number or the ack
5562 : : * value must stay constant)
5563 : : * - Unexpected TCP option.
5564 : : *
5565 : : * When these conditions are not satisfied it drops into a standard
5566 : : * receive procedure patterned after RFC793 to handle all cases.
5567 : : * The first three cases are guaranteed by proper pred_flags setting,
5568 : : * the rest is checked inline. Fast processing is turned on in
5569 : : * tcp_data_queue when everything is OK.
5570 : : */
5571 : 6946 : void tcp_rcv_established(struct sock *sk, struct sk_buff *skb)
5572 : : {
5573 : 6946 : const struct tcphdr *th = (const struct tcphdr *)skb->data;
5574 : : struct tcp_sock *tp = tcp_sk(sk);
5575 : 6946 : unsigned int len = skb->len;
5576 : :
5577 : : /* TCP congestion window tracking */
5578 : 6946 : trace_tcp_probe(sk, skb);
5579 : :
5580 : 6946 : tcp_mstamp_refresh(tp);
5581 [ - + ]: 6946 : if (unlikely(!sk->sk_rx_dst))
5582 : 0 : inet_csk(sk)->icsk_af_ops->sk_rx_dst_set(sk, skb);
5583 : : /*
5584 : : * Header prediction.
5585 : : * The code loosely follows the one in the famous
5586 : : * "30 instruction TCP receive" Van Jacobson mail.
5587 : : *
5588 : : * Van's trick is to deposit buffers into socket queue
5589 : : * on a device interrupt, to call tcp_recv function
5590 : : * on the receive process context and checksum and copy
5591 : : * the buffer to user space. smart...
5592 : : *
5593 : : * Our current scheme is not silly either but we take the
5594 : : * extra cost of the net_bh soft interrupt processing...
5595 : : * We do checksum and copy also but from device to kernel.
5596 : : */
5597 : :
5598 : 6946 : tp->rx_opt.saw_tstamp = 0;
5599 : :
5600 : : /* pred_flags is 0xS?10 << 16 + snd_wnd
5601 : : * if header_prediction is to be made
5602 : : * 'S' will always be tp->tcp_header_len >> 2
5603 : : * '?' will be 0 for the fast path, otherwise pred_flags is 0 to
5604 : : * turn it off (when there are holes in the receive
5605 : : * space for instance)
5606 : : * PSH flag is ignored.
5607 : : */
5608 : :
5609 [ + + + + ]: 13890 : if ((tcp_flag_word(th) & TCP_HP_BITS) == tp->pred_flags &&
5610 [ + - ]: 13886 : TCP_SKB_CB(skb)->seq == tp->rcv_nxt &&
5611 : 6942 : !after(TCP_SKB_CB(skb)->ack_seq, tp->snd_nxt)) {
5612 : 6942 : int tcp_header_len = tp->tcp_header_len;
5613 : :
5614 : : /* Timestamp header prediction: tcp_header_len
5615 : : * is automatically equal to th->doff*4 due to pred_flags
5616 : : * match.
5617 : : */
5618 : :
5619 : : /* Check timestamp */
5620 [ - + ]: 6942 : if (tcp_header_len == sizeof(struct tcphdr) + TCPOLEN_TSTAMP_ALIGNED) {
5621 : : /* No? Slow path! */
5622 [ # # ]: 0 : if (!tcp_parse_aligned_timestamp(tp, th))
5623 : : goto slow_path;
5624 : :
5625 : : /* If PAWS failed, check it more carefully in slow path */
5626 [ # # ]: 0 : if ((s32)(tp->rx_opt.rcv_tsval - tp->rx_opt.ts_recent) < 0)
5627 : : goto slow_path;
5628 : :
5629 : : /* DO NOT update ts_recent here, if checksum fails
5630 : : * and timestamp was corrupted part, it will result
5631 : : * in a hung connection since we will drop all
5632 : : * future packets due to the PAWS test.
5633 : : */
5634 : : }
5635 : :
5636 [ + + ]: 6942 : if (len <= tcp_header_len) {
5637 : : /* Bulk data transfer: sender */
5638 [ + - ]: 356 : if (len == tcp_header_len) {
5639 : : /* Predicted packet is in window by definition.
5640 : : * seq == rcv_nxt and rcv_wup <= rcv_nxt.
5641 : : * Hence, check seq<=rcv_wup reduces to:
5642 : : */
5643 [ - + ]: 356 : if (tcp_header_len ==
5644 [ # # ]: 0 : (sizeof(struct tcphdr) + TCPOLEN_TSTAMP_ALIGNED) &&
5645 : 0 : tp->rcv_nxt == tp->rcv_wup)
5646 : : tcp_store_ts_recent(tp);
5647 : :
5648 : : /* We know that such packets are checksummed
5649 : : * on entry.
5650 : : */
5651 : 356 : tcp_ack(sk, skb, 0);
5652 : 356 : __kfree_skb(skb);
5653 : : tcp_data_snd_check(sk);
5654 : : /* When receiving pure ack in fast path, update
5655 : : * last ts ecr directly instead of calling
5656 : : * tcp_rcv_rtt_measure_ts()
5657 : : */
5658 : 356 : tp->rcv_rtt_last_tsecr = tp->rx_opt.rcv_tsecr;
5659 : 356 : return;
5660 : : } else { /* Header too small */
5661 : 0 : TCP_INC_STATS(sock_net(sk), TCP_MIB_INERRS);
5662 : : goto discard;
5663 : : }
5664 : : } else {
5665 : : int eaten = 0;
5666 : 6586 : bool fragstolen = false;
5667 : :
5668 [ + - ]: 6586 : if (tcp_checksum_complete(skb))
5669 : : goto csum_error;
5670 : :
5671 [ + + ]: 6586 : if ((int)skb->truesize > sk->sk_forward_alloc)
5672 : : goto step5;
5673 : :
5674 : : /* Predicted packet is in window by definition.
5675 : : * seq == rcv_nxt and rcv_wup <= rcv_nxt.
5676 : : * Hence, check seq<=rcv_wup reduces to:
5677 : : */
5678 [ - + ]: 5722 : if (tcp_header_len ==
5679 [ # # ]: 0 : (sizeof(struct tcphdr) + TCPOLEN_TSTAMP_ALIGNED) &&
5680 : 0 : tp->rcv_nxt == tp->rcv_wup)
5681 : : tcp_store_ts_recent(tp);
5682 : :
5683 : 5722 : tcp_rcv_rtt_measure_ts(sk, skb);
5684 : :
5685 : 11444 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPHPHITS);
5686 : :
5687 : : /* Bulk data transfer: receiver */
5688 : 5722 : __skb_pull(skb, tcp_header_len);
5689 : 5722 : eaten = tcp_queue_rcv(sk, skb, &fragstolen);
5690 : :
5691 : 5722 : tcp_event_data_recv(sk, skb);
5692 : :
5693 [ + + ]: 5722 : if (TCP_SKB_CB(skb)->ack_seq != tp->snd_una) {
5694 : : /* Well, only one small jumplet in fast path... */
5695 : 24 : tcp_ack(sk, skb, FLAG_DATA);
5696 : : tcp_data_snd_check(sk);
5697 [ + - ]: 24 : if (!inet_csk_ack_scheduled(sk))
5698 : : goto no_ack;
5699 : : }
5700 : :
5701 : 5722 : __tcp_ack_snd_check(sk, 0);
5702 : : no_ack:
5703 [ + + ]: 5722 : if (eaten)
5704 : 3164 : kfree_skb_partial(skb, fragstolen);
5705 : 5722 : tcp_data_ready(sk);
5706 : 5722 : return;
5707 : : }
5708 : : }
5709 : :
5710 : : slow_path:
5711 [ + - + - ]: 4 : if (len < (th->doff << 2) || tcp_checksum_complete(skb))
5712 : : goto csum_error;
5713 : :
5714 [ + - ]: 4 : if (!th->ack && !th->rst && !th->syn)
5715 : : goto discard;
5716 : :
5717 : : /*
5718 : : * Standard slow path.
5719 : : */
5720 : :
5721 [ + - ]: 4 : if (!tcp_validate_incoming(sk, skb, th, 1))
5722 : : return;
5723 : :
5724 : : step5:
5725 [ + - ]: 868 : if (tcp_ack(sk, skb, FLAG_SLOWPATH | FLAG_UPDATE_TS_RECENT) < 0)
5726 : : goto discard;
5727 : :
5728 : 868 : tcp_rcv_rtt_measure_ts(sk, skb);
5729 : :
5730 : : /* Process urgent data. */
5731 : 868 : tcp_urg(sk, skb, th);
5732 : :
5733 : : /* step 7: process the segment text */
5734 : 868 : tcp_data_queue(sk, skb);
5735 : :
5736 : : tcp_data_snd_check(sk);
5737 : : tcp_ack_snd_check(sk);
5738 : : return;
5739 : :
5740 : : csum_error:
5741 : 0 : TCP_INC_STATS(sock_net(sk), TCP_MIB_CSUMERRORS);
5742 : 0 : TCP_INC_STATS(sock_net(sk), TCP_MIB_INERRS);
5743 : :
5744 : : discard:
5745 : : tcp_drop(sk, skb);
5746 : : }
5747 : : EXPORT_SYMBOL(tcp_rcv_established);
5748 : :
5749 : 72 : void tcp_init_transfer(struct sock *sk, int bpf_op)
5750 : : {
5751 : : struct inet_connection_sock *icsk = inet_csk(sk);
5752 : : struct tcp_sock *tp = tcp_sk(sk);
5753 : :
5754 : 72 : tcp_mtup_init(sk);
5755 : 72 : icsk->icsk_af_ops->rebuild_header(sk);
5756 : 72 : tcp_init_metrics(sk);
5757 : :
5758 : : /* Initialize the congestion window to start the transfer.
5759 : : * Cut cwnd down to 1 per RFC5681 if SYN or SYN-ACK has been
5760 : : * retransmitted. In light of RFC6298 more aggressive 1sec
5761 : : * initRTO, we only reset cwnd when more than 1 SYN/SYN-ACK
5762 : : * retransmission has occurred.
5763 : : */
5764 [ - + # # ]: 72 : if (tp->total_retrans > 1 && tp->undo_marker)
5765 : 0 : tp->snd_cwnd = 1;
5766 : : else
5767 : 72 : tp->snd_cwnd = tcp_init_cwnd(tp, __sk_dst_get(sk));
5768 : 72 : tp->snd_cwnd_stamp = tcp_jiffies32;
5769 : :
5770 : 72 : tcp_call_bpf(sk, bpf_op, 0, NULL);
5771 : 72 : tcp_init_congestion_control(sk);
5772 : 72 : tcp_init_buffer_space(sk);
5773 : 72 : }
5774 : :
5775 : 72 : void tcp_finish_connect(struct sock *sk, struct sk_buff *skb)
5776 : : {
5777 : : struct tcp_sock *tp = tcp_sk(sk);
5778 : : struct inet_connection_sock *icsk = inet_csk(sk);
5779 : :
5780 : 72 : tcp_set_state(sk, TCP_ESTABLISHED);
5781 : 72 : icsk->icsk_ack.lrcvtime = tcp_jiffies32;
5782 : :
5783 [ + - ]: 72 : if (skb) {
5784 : 72 : icsk->icsk_af_ops->sk_rx_dst_set(sk, skb);
5785 : 72 : security_inet_conn_established(sk, skb);
5786 : : sk_mark_napi_id(sk, skb);
5787 : : }
5788 : :
5789 : 72 : tcp_init_transfer(sk, BPF_SOCK_OPS_ACTIVE_ESTABLISHED_CB);
5790 : :
5791 : : /* Prevent spurious tcp_cwnd_restart() on first data
5792 : : * packet.
5793 : : */
5794 : 72 : tp->lsndtime = tcp_jiffies32;
5795 : :
5796 [ + - ]: 72 : if (sock_flag(sk, SOCK_KEEPOPEN))
5797 : 72 : inet_csk_reset_keepalive_timer(sk, keepalive_time_when(tp));
5798 : :
5799 [ + - ]: 72 : if (!tp->rx_opt.snd_wscale)
5800 : 72 : __tcp_fast_path_on(tp, tp->snd_wnd);
5801 : : else
5802 : 0 : tp->pred_flags = 0;
5803 : 72 : }
5804 : :
5805 : 0 : static bool tcp_rcv_fastopen_synack(struct sock *sk, struct sk_buff *synack,
5806 : : struct tcp_fastopen_cookie *cookie)
5807 : : {
5808 : : struct tcp_sock *tp = tcp_sk(sk);
5809 [ # # ]: 0 : struct sk_buff *data = tp->syn_data ? tcp_rtx_queue_head(sk) : NULL;
5810 : 0 : u16 mss = tp->rx_opt.mss_clamp, try_exp = 0;
5811 : : bool syn_drop = false;
5812 : :
5813 [ # # ]: 0 : if (mss == tp->rx_opt.user_mss) {
5814 : : struct tcp_options_received opt;
5815 : :
5816 : : /* Get original SYNACK MSS value if user MSS sets mss_clamp */
5817 : : tcp_clear_options(&opt);
5818 : 0 : opt.user_mss = opt.mss_clamp = 0;
5819 : 0 : tcp_parse_options(sock_net(sk), synack, &opt, 0, NULL);
5820 : 0 : mss = opt.mss_clamp;
5821 : : }
5822 : :
5823 [ # # ]: 0 : if (!tp->syn_fastopen) {
5824 : : /* Ignore an unsolicited cookie */
5825 : 0 : cookie->len = -1;
5826 [ # # ]: 0 : } else if (tp->total_retrans) {
5827 : : /* SYN timed out and the SYN-ACK neither has a cookie nor
5828 : : * acknowledges data. Presumably the remote received only
5829 : : * the retransmitted (regular) SYNs: either the original
5830 : : * SYN-data or the corresponding SYN-ACK was dropped.
5831 : : */
5832 [ # # # # ]: 0 : syn_drop = (cookie->len < 0 && data);
5833 [ # # # # ]: 0 : } else if (cookie->len < 0 && !tp->syn_data) {
5834 : : /* We requested a cookie but didn't get it. If we did not use
5835 : : * the (old) exp opt format then try so next time (try_exp=1).
5836 : : * Otherwise we go back to use the RFC7413 opt (try_exp=2).
5837 : : */
5838 [ # # ]: 0 : try_exp = tp->syn_fastopen_exp ? 2 : 1;
5839 : : }
5840 : :
5841 : 0 : tcp_fastopen_cache_set(sk, mss, cookie, syn_drop, try_exp);
5842 : :
5843 [ # # ]: 0 : if (data) { /* Retransmit unacked data in SYN */
5844 [ # # # # ]: 0 : skb_rbtree_walk_from(data) {
5845 [ # # ]: 0 : if (__tcp_retransmit_skb(sk, data, 1))
5846 : : break;
5847 : : }
5848 : 0 : tcp_rearm_rto(sk);
5849 : 0 : NET_INC_STATS(sock_net(sk),
5850 : : LINUX_MIB_TCPFASTOPENACTIVEFAIL);
5851 : 0 : return true;
5852 : : }
5853 : 0 : tp->syn_data_acked = tp->syn_data;
5854 [ # # ]: 0 : if (tp->syn_data_acked) {
5855 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPFASTOPENACTIVE);
5856 : : /* SYN-data is counted as two separate packets in tcp_ack() */
5857 [ # # ]: 0 : if (tp->delivered > 1)
5858 : 0 : --tp->delivered;
5859 : : }
5860 : :
5861 : 0 : tcp_fastopen_add_skb(sk, synack);
5862 : :
5863 : 0 : return false;
5864 : : }
5865 : :
5866 : : static void smc_check_reset_syn(struct tcp_sock *tp)
5867 : : {
5868 : : #if IS_ENABLED(CONFIG_SMC)
5869 : : if (static_branch_unlikely(&tcp_have_smc)) {
5870 : : if (tp->syn_smc && !tp->rx_opt.smc_ok)
5871 : : tp->syn_smc = 0;
5872 : : }
5873 : : #endif
5874 : : }
5875 : :
5876 : : static void tcp_try_undo_spurious_syn(struct sock *sk)
5877 : : {
5878 : : struct tcp_sock *tp = tcp_sk(sk);
5879 : : u32 syn_stamp;
5880 : :
5881 : : /* undo_marker is set when SYN or SYNACK times out. The timeout is
5882 : : * spurious if the ACK's timestamp option echo value matches the
5883 : : * original SYN timestamp.
5884 : : */
5885 : 72 : syn_stamp = tp->retrans_stamp;
5886 [ # # # # : 72 : if (tp->undo_marker && syn_stamp && tp->rx_opt.saw_tstamp &&
# # # # -
+ # # # #
# # ]
5887 : 0 : syn_stamp == tp->rx_opt.rcv_tsecr)
5888 : 0 : tp->undo_marker = 0;
5889 : : }
5890 : :
5891 : 72 : static int tcp_rcv_synsent_state_process(struct sock *sk, struct sk_buff *skb,
5892 : : const struct tcphdr *th)
5893 : : {
5894 : : struct inet_connection_sock *icsk = inet_csk(sk);
5895 : : struct tcp_sock *tp = tcp_sk(sk);
5896 : 72 : struct tcp_fastopen_cookie foc = { .len = -1 };
5897 : 72 : int saved_clamp = tp->rx_opt.mss_clamp;
5898 : : bool fastopen_fail;
5899 : :
5900 : 72 : tcp_parse_options(sock_net(sk), skb, &tp->rx_opt, 0, &foc);
5901 [ - + # # ]: 72 : if (tp->rx_opt.saw_tstamp && tp->rx_opt.rcv_tsecr)
5902 : 0 : tp->rx_opt.rcv_tsecr -= tp->tsoffset;
5903 : :
5904 [ + - ]: 72 : if (th->ack) {
5905 : : /* rfc793:
5906 : : * "If the state is SYN-SENT then
5907 : : * first check the ACK bit
5908 : : * If the ACK bit is set
5909 : : * If SEG.ACK =< ISS, or SEG.ACK > SND.NXT, send
5910 : : * a reset (unless the RST bit is set, if so drop
5911 : : * the segment and return)"
5912 : : */
5913 [ + - + - ]: 216 : if (!after(TCP_SKB_CB(skb)->ack_seq, tp->snd_una) ||
5914 : 72 : after(TCP_SKB_CB(skb)->ack_seq, tp->snd_nxt))
5915 : : goto reset_and_undo;
5916 : :
5917 [ - + # # : 72 : if (tp->rx_opt.saw_tstamp && tp->rx_opt.rcv_tsecr &&
# # ]
5918 : 0 : !between(tp->rx_opt.rcv_tsecr, tp->retrans_stamp,
5919 : : tcp_time_stamp(tp))) {
5920 : 0 : NET_INC_STATS(sock_net(sk),
5921 : : LINUX_MIB_PAWSACTIVEREJECTED);
5922 : : goto reset_and_undo;
5923 : : }
5924 : :
5925 : : /* Now ACK is acceptable.
5926 : : *
5927 : : * "If the RST bit is set
5928 : : * If the ACK was acceptable then signal the user "error:
5929 : : * connection reset", drop the segment, enter CLOSED state,
5930 : : * delete TCB, and return."
5931 : : */
5932 : :
5933 [ - + ]: 72 : if (th->rst) {
5934 : 0 : tcp_reset(sk);
5935 : 0 : goto discard;
5936 : : }
5937 : :
5938 : : /* rfc793:
5939 : : * "fifth, if neither of the SYN or RST bits is set then
5940 : : * drop the segment and return."
5941 : : *
5942 : : * See note below!
5943 : : * --ANK(990513)
5944 : : */
5945 [ + - ]: 72 : if (!th->syn)
5946 : : goto discard_and_undo;
5947 : :
5948 : : /* rfc793:
5949 : : * "If the SYN bit is on ...
5950 : : * are acceptable then ...
5951 : : * (our SYN has been ACKed), change the connection
5952 : : * state to ESTABLISHED..."
5953 : : */
5954 : :
5955 : : tcp_ecn_rcv_synack(tp, th);
5956 : :
5957 : 72 : tcp_init_wl(tp, TCP_SKB_CB(skb)->seq);
5958 : : tcp_try_undo_spurious_syn(sk);
5959 : 72 : tcp_ack(sk, skb, FLAG_SLOWPATH);
5960 : :
5961 : : /* Ok.. it's good. Set up sequence numbers and
5962 : : * move to established.
5963 : : */
5964 : 72 : WRITE_ONCE(tp->rcv_nxt, TCP_SKB_CB(skb)->seq + 1);
5965 : 72 : tp->rcv_wup = TCP_SKB_CB(skb)->seq + 1;
5966 : :
5967 : : /* RFC1323: The window in SYN & SYN/ACK segments is
5968 : : * never scaled.
5969 : : */
5970 : 72 : tp->snd_wnd = ntohs(th->window);
5971 : :
5972 [ + - ]: 72 : if (!tp->rx_opt.wscale_ok) {
5973 : 72 : tp->rx_opt.snd_wscale = tp->rx_opt.rcv_wscale = 0;
5974 : 72 : tp->window_clamp = min(tp->window_clamp, 65535U);
5975 : : }
5976 : :
5977 [ - + ]: 72 : if (tp->rx_opt.saw_tstamp) {
5978 : 0 : tp->rx_opt.tstamp_ok = 1;
5979 : 0 : tp->tcp_header_len =
5980 : : sizeof(struct tcphdr) + TCPOLEN_TSTAMP_ALIGNED;
5981 : 0 : tp->advmss -= TCPOLEN_TSTAMP_ALIGNED;
5982 : : tcp_store_ts_recent(tp);
5983 : : } else {
5984 : 72 : tp->tcp_header_len = sizeof(struct tcphdr);
5985 : : }
5986 : :
5987 : 72 : tcp_sync_mss(sk, icsk->icsk_pmtu_cookie);
5988 : : tcp_initialize_rcv_mss(sk);
5989 : :
5990 : : /* Remember, tcp_poll() does not lock socket!
5991 : : * Change state from SYN-SENT only after copied_seq
5992 : : * is initialized. */
5993 : 72 : WRITE_ONCE(tp->copied_seq, tp->rcv_nxt);
5994 : :
5995 : : smc_check_reset_syn(tp);
5996 : :
5997 : 72 : smp_mb();
5998 : :
5999 : 72 : tcp_finish_connect(sk, skb);
6000 : :
6001 [ - + # # ]: 72 : fastopen_fail = (tp->syn_fastopen || tp->syn_data) &&
6002 : 0 : tcp_rcv_fastopen_synack(sk, skb, &foc);
6003 : :
6004 [ + - ]: 72 : if (!sock_flag(sk, SOCK_DEAD)) {
6005 : 72 : sk->sk_state_change(sk);
6006 : 72 : sk_wake_async(sk, SOCK_WAKE_IO, POLL_OUT);
6007 : : }
6008 [ + - ]: 72 : if (fastopen_fail)
6009 : : return -1;
6010 [ + - + - ]: 144 : if (sk->sk_write_pending ||
6011 [ - + ]: 144 : icsk->icsk_accept_queue.rskq_defer_accept ||
6012 : : inet_csk_in_pingpong_mode(sk)) {
6013 : : /* Save one ACK. Data will be ready after
6014 : : * several ticks, if write_pending is set.
6015 : : *
6016 : : * It may be deleted, but with this feature tcpdumps
6017 : : * look so _wonderfully_ clever, that I was not able
6018 : : * to stand against the temptation 8) --ANK
6019 : : */
6020 : : inet_csk_schedule_ack(sk);
6021 : : tcp_enter_quickack_mode(sk, TCP_MAX_QUICKACKS);
6022 : 0 : inet_csk_reset_xmit_timer(sk, ICSK_TIME_DACK,
6023 : : TCP_DELACK_MAX, TCP_RTO_MAX);
6024 : :
6025 : : discard:
6026 : : tcp_drop(sk, skb);
6027 : 0 : return 0;
6028 : : } else {
6029 : 72 : tcp_send_ack(sk);
6030 : : }
6031 : 72 : return -1;
6032 : : }
6033 : :
6034 : : /* No ACK in the segment */
6035 : :
6036 [ # # ]: 0 : if (th->rst) {
6037 : : /* rfc793:
6038 : : * "If the RST bit is set
6039 : : *
6040 : : * Otherwise (no ACK) drop the segment and return."
6041 : : */
6042 : :
6043 : : goto discard_and_undo;
6044 : : }
6045 : :
6046 : : /* PAWS check. */
6047 [ # # # # : 0 : if (tp->rx_opt.ts_recent_stamp && tp->rx_opt.saw_tstamp &&
# # ]
6048 : 0 : tcp_paws_reject(&tp->rx_opt, 0))
6049 : : goto discard_and_undo;
6050 : :
6051 [ # # ]: 0 : if (th->syn) {
6052 : : /* We see SYN without ACK. It is attempt of
6053 : : * simultaneous connect with crossed SYNs.
6054 : : * Particularly, it can be connect to self.
6055 : : */
6056 : 0 : tcp_set_state(sk, TCP_SYN_RECV);
6057 : :
6058 [ # # ]: 0 : if (tp->rx_opt.saw_tstamp) {
6059 : 0 : tp->rx_opt.tstamp_ok = 1;
6060 : : tcp_store_ts_recent(tp);
6061 : 0 : tp->tcp_header_len =
6062 : : sizeof(struct tcphdr) + TCPOLEN_TSTAMP_ALIGNED;
6063 : : } else {
6064 : 0 : tp->tcp_header_len = sizeof(struct tcphdr);
6065 : : }
6066 : :
6067 : 0 : WRITE_ONCE(tp->rcv_nxt, TCP_SKB_CB(skb)->seq + 1);
6068 : 0 : WRITE_ONCE(tp->copied_seq, tp->rcv_nxt);
6069 : 0 : tp->rcv_wup = TCP_SKB_CB(skb)->seq + 1;
6070 : :
6071 : : /* RFC1323: The window in SYN & SYN/ACK segments is
6072 : : * never scaled.
6073 : : */
6074 : 0 : tp->snd_wnd = ntohs(th->window);
6075 : 0 : tp->snd_wl1 = TCP_SKB_CB(skb)->seq;
6076 : 0 : tp->max_window = tp->snd_wnd;
6077 : :
6078 : : tcp_ecn_rcv_syn(tp, th);
6079 : :
6080 : 0 : tcp_mtup_init(sk);
6081 : 0 : tcp_sync_mss(sk, icsk->icsk_pmtu_cookie);
6082 : : tcp_initialize_rcv_mss(sk);
6083 : :
6084 : 0 : tcp_send_synack(sk);
6085 : : #if 0
6086 : : /* Note, we could accept data and URG from this segment.
6087 : : * There are no obstacles to make this (except that we must
6088 : : * either change tcp_recvmsg() to prevent it from returning data
6089 : : * before 3WHS completes per RFC793, or employ TCP Fast Open).
6090 : : *
6091 : : * However, if we ignore data in ACKless segments sometimes,
6092 : : * we have no reasons to accept it sometimes.
6093 : : * Also, seems the code doing it in step6 of tcp_rcv_state_process
6094 : : * is not flawless. So, discard packet for sanity.
6095 : : * Uncomment this return to process the data.
6096 : : */
6097 : : return -1;
6098 : : #else
6099 : 0 : goto discard;
6100 : : #endif
6101 : : }
6102 : : /* "fifth, if neither of the SYN or RST bits is set then
6103 : : * drop the segment and return."
6104 : : */
6105 : :
6106 : : discard_and_undo:
6107 : : tcp_clear_options(&tp->rx_opt);
6108 : 0 : tp->rx_opt.mss_clamp = saved_clamp;
6109 : 0 : goto discard;
6110 : :
6111 : : reset_and_undo:
6112 : : tcp_clear_options(&tp->rx_opt);
6113 : 0 : tp->rx_opt.mss_clamp = saved_clamp;
6114 : 0 : return 1;
6115 : : }
6116 : :
6117 : 0 : static void tcp_rcv_synrecv_state_fastopen(struct sock *sk)
6118 : : {
6119 : : struct request_sock *req;
6120 : :
6121 : : /* If we are still handling the SYNACK RTO, see if timestamp ECR allows
6122 : : * undo. If peer SACKs triggered fast recovery, we can't undo here.
6123 : : */
6124 [ # # ]: 0 : if (inet_csk(sk)->icsk_ca_state == TCP_CA_Loss)
6125 : 0 : tcp_try_undo_loss(sk, false);
6126 : :
6127 : : /* Reset rtx states to prevent spurious retransmits_timed_out() */
6128 : 0 : tcp_sk(sk)->retrans_stamp = 0;
6129 : 0 : inet_csk(sk)->icsk_retransmits = 0;
6130 : :
6131 : : /* Once we leave TCP_SYN_RECV or TCP_FIN_WAIT_1,
6132 : : * we no longer need req so release it.
6133 : : */
6134 : 0 : req = rcu_dereference_protected(tcp_sk(sk)->fastopen_rsk,
6135 : : lockdep_sock_is_held(sk));
6136 : 0 : reqsk_fastopen_remove(sk, req, false);
6137 : :
6138 : : /* Re-arm the timer because data may have been sent out.
6139 : : * This is similar to the regular data transmission case
6140 : : * when new data has just been ack'ed.
6141 : : *
6142 : : * (TFO) - we could try to be more aggressive and
6143 : : * retransmitting any data sooner based on when they
6144 : : * are sent out.
6145 : : */
6146 : 0 : tcp_rearm_rto(sk);
6147 : 0 : }
6148 : :
6149 : : /*
6150 : : * This function implements the receiving procedure of RFC 793 for
6151 : : * all states except ESTABLISHED and TIME_WAIT.
6152 : : * It's called from both tcp_v4_rcv and tcp_v6_rcv and should be
6153 : : * address independent.
6154 : : */
6155 : :
6156 : 122 : int tcp_rcv_state_process(struct sock *sk, struct sk_buff *skb)
6157 : : {
6158 : : struct tcp_sock *tp = tcp_sk(sk);
6159 : : struct inet_connection_sock *icsk = inet_csk(sk);
6160 : : const struct tcphdr *th = tcp_hdr(skb);
6161 : : struct request_sock *req;
6162 : : int queued = 0;
6163 : : bool acceptable;
6164 : :
6165 [ - + + - ]: 122 : switch (sk->sk_state) {
6166 : : case TCP_CLOSE:
6167 : : goto discard;
6168 : :
6169 : : case TCP_LISTEN:
6170 [ # # ]: 0 : if (th->ack)
6171 : : return 1;
6172 : :
6173 [ # # ]: 0 : if (th->rst)
6174 : : goto discard;
6175 : :
6176 [ # # ]: 0 : if (th->syn) {
6177 [ # # ]: 0 : if (th->fin)
6178 : : goto discard;
6179 : : /* It is possible that we process SYN packets from backlog,
6180 : : * so we need to make sure to disable BH and RCU right there.
6181 : : */
6182 : : rcu_read_lock();
6183 : : local_bh_disable();
6184 : 0 : acceptable = icsk->icsk_af_ops->conn_request(sk, skb) >= 0;
6185 : : local_bh_enable();
6186 : : rcu_read_unlock();
6187 : :
6188 [ # # ]: 0 : if (!acceptable)
6189 : : return 1;
6190 : 0 : consume_skb(skb);
6191 : 0 : return 0;
6192 : : }
6193 : : goto discard;
6194 : :
6195 : : case TCP_SYN_SENT:
6196 : 72 : tp->rx_opt.saw_tstamp = 0;
6197 : 72 : tcp_mstamp_refresh(tp);
6198 : 72 : queued = tcp_rcv_synsent_state_process(sk, skb, th);
6199 [ + - ]: 72 : if (queued >= 0)
6200 : : return queued;
6201 : :
6202 : : /* Do step6 onward by hand. */
6203 : 72 : tcp_urg(sk, skb, th);
6204 : 72 : __kfree_skb(skb);
6205 : : tcp_data_snd_check(sk);
6206 : 72 : return 0;
6207 : : }
6208 : :
6209 : 50 : tcp_mstamp_refresh(tp);
6210 : 50 : tp->rx_opt.saw_tstamp = 0;
6211 : 50 : req = rcu_dereference_protected(tp->fastopen_rsk,
6212 : : lockdep_sock_is_held(sk));
6213 [ - + ]: 50 : if (req) {
6214 : : bool req_stolen;
6215 : :
6216 [ # # # # : 0 : WARN_ON_ONCE(sk->sk_state != TCP_SYN_RECV &&
# # # # ]
6217 : : sk->sk_state != TCP_FIN_WAIT1);
6218 : :
6219 [ # # ]: 0 : if (!tcp_check_req(sk, skb, req, true, &req_stolen))
6220 : : goto discard;
6221 : : }
6222 : :
6223 [ + - ]: 50 : if (!th->ack && !th->rst && !th->syn)
6224 : : goto discard;
6225 : :
6226 [ + - ]: 50 : if (!tcp_validate_incoming(sk, skb, th, 0))
6227 : : return 0;
6228 : :
6229 : : /* step 5: check the ACK field */
6230 : 50 : acceptable = tcp_ack(sk, skb, FLAG_SLOWPATH |
6231 : : FLAG_UPDATE_TS_RECENT |
6232 : : FLAG_NO_CHALLENGE_ACK) > 0;
6233 : :
6234 [ - + ]: 50 : if (!acceptable) {
6235 [ # # ]: 0 : if (sk->sk_state == TCP_SYN_RECV)
6236 : : return 1; /* send one RST */
6237 : 0 : tcp_send_challenge_ack(sk, skb);
6238 : 0 : goto discard;
6239 : : }
6240 [ - + - + : 50 : switch (sk->sk_state) {
- ]
6241 : : case TCP_SYN_RECV:
6242 : 0 : tp->delivered++; /* SYN-ACK delivery isn't tracked in tcp_ack */
6243 [ # # ]: 0 : if (!tp->srtt_us)
6244 : 0 : tcp_synack_rtt_meas(sk, req);
6245 : :
6246 [ # # ]: 0 : if (req) {
6247 : 0 : tcp_rcv_synrecv_state_fastopen(sk);
6248 : : } else {
6249 : : tcp_try_undo_spurious_syn(sk);
6250 : 0 : tp->retrans_stamp = 0;
6251 : 0 : tcp_init_transfer(sk, BPF_SOCK_OPS_PASSIVE_ESTABLISHED_CB);
6252 : 0 : WRITE_ONCE(tp->copied_seq, tp->rcv_nxt);
6253 : : }
6254 : 0 : smp_mb();
6255 : 0 : tcp_set_state(sk, TCP_ESTABLISHED);
6256 : 0 : sk->sk_state_change(sk);
6257 : :
6258 : : /* Note, that this wakeup is only for marginal crossed SYN case.
6259 : : * Passively open sockets are not waked up, because
6260 : : * sk->sk_sleep == NULL and sk->sk_socket == NULL.
6261 : : */
6262 [ # # ]: 0 : if (sk->sk_socket)
6263 : 0 : sk_wake_async(sk, SOCK_WAKE_IO, POLL_OUT);
6264 : :
6265 : 0 : tp->snd_una = TCP_SKB_CB(skb)->ack_seq;
6266 : 0 : tp->snd_wnd = ntohs(th->window) << tp->rx_opt.snd_wscale;
6267 : 0 : tcp_init_wl(tp, TCP_SKB_CB(skb)->seq);
6268 : :
6269 [ # # ]: 0 : if (tp->rx_opt.tstamp_ok)
6270 : 0 : tp->advmss -= TCPOLEN_TSTAMP_ALIGNED;
6271 : :
6272 [ # # ]: 0 : if (!inet_csk(sk)->icsk_ca_ops->cong_control)
6273 : 0 : tcp_update_pacing_rate(sk);
6274 : :
6275 : : /* Prevent spurious tcp_cwnd_restart() on first data packet */
6276 : 0 : tp->lsndtime = tcp_jiffies32;
6277 : :
6278 : : tcp_initialize_rcv_mss(sk);
6279 : : tcp_fast_path_on(tp);
6280 : : break;
6281 : :
6282 : : case TCP_FIN_WAIT1: {
6283 : : int tmo;
6284 : :
6285 [ - + ]: 48 : if (req)
6286 : 0 : tcp_rcv_synrecv_state_fastopen(sk);
6287 : :
6288 [ + + ]: 48 : if (tp->snd_una != tp->write_seq)
6289 : : break;
6290 : :
6291 : 46 : tcp_set_state(sk, TCP_FIN_WAIT2);
6292 : 46 : sk->sk_shutdown |= SEND_SHUTDOWN;
6293 : :
6294 : : sk_dst_confirm(sk);
6295 : :
6296 [ - + ]: 46 : if (!sock_flag(sk, SOCK_DEAD)) {
6297 : : /* Wake up lingering close() */
6298 : 0 : sk->sk_state_change(sk);
6299 : 0 : break;
6300 : : }
6301 : :
6302 [ - + ]: 46 : if (tp->linger2 < 0) {
6303 : 0 : tcp_done(sk);
6304 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPABORTONDATA);
6305 : 0 : return 1;
6306 : : }
6307 [ - + # # ]: 46 : if (TCP_SKB_CB(skb)->end_seq != TCP_SKB_CB(skb)->seq &&
6308 : 0 : after(TCP_SKB_CB(skb)->end_seq - th->fin, tp->rcv_nxt)) {
6309 : : /* Receive out of order FIN after close() */
6310 [ # # # # ]: 0 : if (tp->syn_fastopen && th->fin)
6311 : 0 : tcp_fastopen_active_disable(sk);
6312 : 0 : tcp_done(sk);
6313 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPABORTONDATA);
6314 : 0 : return 1;
6315 : : }
6316 : :
6317 : : tmo = tcp_fin_time(sk);
6318 [ - + ]: 46 : if (tmo > TCP_TIMEWAIT_LEN) {
6319 : 0 : inet_csk_reset_keepalive_timer(sk, tmo - TCP_TIMEWAIT_LEN);
6320 [ + - - + ]: 92 : } else if (th->fin || sock_owned_by_user(sk)) {
6321 : : /* Bad case. We could lose such FIN otherwise.
6322 : : * It is not a big problem, but it looks confusing
6323 : : * and not so rare event. We still can lose it now,
6324 : : * if it spins in bh_lock_sock(), but it is really
6325 : : * marginal case.
6326 : : */
6327 : 0 : inet_csk_reset_keepalive_timer(sk, tmo);
6328 : : } else {
6329 : 46 : tcp_time_wait(sk, TCP_FIN_WAIT2, tmo);
6330 : 46 : goto discard;
6331 : : }
6332 : : break;
6333 : : }
6334 : :
6335 : : case TCP_CLOSING:
6336 [ # # ]: 0 : if (tp->snd_una == tp->write_seq) {
6337 : 0 : tcp_time_wait(sk, TCP_TIME_WAIT, 0);
6338 : 0 : goto discard;
6339 : : }
6340 : : break;
6341 : :
6342 : : case TCP_LAST_ACK:
6343 [ + - ]: 2 : if (tp->snd_una == tp->write_seq) {
6344 : 2 : tcp_update_metrics(sk);
6345 : 2 : tcp_done(sk);
6346 : 2 : goto discard;
6347 : : }
6348 : : break;
6349 : : }
6350 : :
6351 : : /* step 6: check the URG bit */
6352 : 2 : tcp_urg(sk, skb, th);
6353 : :
6354 : : /* step 7: process the segment text */
6355 [ - + - - ]: 2 : switch (sk->sk_state) {
6356 : : case TCP_CLOSE_WAIT:
6357 : : case TCP_CLOSING:
6358 : : case TCP_LAST_ACK:
6359 [ # # ]: 0 : if (!before(TCP_SKB_CB(skb)->seq, tp->rcv_nxt))
6360 : : break;
6361 : : /* fall through */
6362 : : case TCP_FIN_WAIT1:
6363 : : case TCP_FIN_WAIT2:
6364 : : /* RFC 793 says to queue data in these states,
6365 : : * RFC 1122 says we MUST send a reset.
6366 : : * BSD 4.4 also does reset.
6367 : : */
6368 [ + - ]: 2 : if (sk->sk_shutdown & RCV_SHUTDOWN) {
6369 [ - + # # ]: 2 : if (TCP_SKB_CB(skb)->end_seq != TCP_SKB_CB(skb)->seq &&
6370 : 0 : after(TCP_SKB_CB(skb)->end_seq - th->fin, tp->rcv_nxt)) {
6371 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPABORTONDATA);
6372 : 0 : tcp_reset(sk);
6373 : 0 : return 1;
6374 : : }
6375 : : }
6376 : : /* Fall through */
6377 : : case TCP_ESTABLISHED:
6378 : 2 : tcp_data_queue(sk, skb);
6379 : : queued = 1;
6380 : 2 : break;
6381 : : }
6382 : :
6383 : : /* tcp_data could move socket to TIME-WAIT */
6384 [ + - ]: 2 : if (sk->sk_state != TCP_CLOSE) {
6385 : : tcp_data_snd_check(sk);
6386 : : tcp_ack_snd_check(sk);
6387 : : }
6388 : :
6389 [ - + ]: 2 : if (!queued) {
6390 : : discard:
6391 : : tcp_drop(sk, skb);
6392 : : }
6393 : : return 0;
6394 : : }
6395 : : EXPORT_SYMBOL(tcp_rcv_state_process);
6396 : :
6397 : : static inline void pr_drop_req(struct request_sock *req, __u16 port, int family)
6398 : : {
6399 : : struct inet_request_sock *ireq = inet_rsk(req);
6400 : :
6401 : : if (family == AF_INET)
6402 : : net_dbg_ratelimited("drop open request from %pI4/%u\n",
6403 : : &ireq->ir_rmt_addr, port);
6404 : : #if IS_ENABLED(CONFIG_IPV6)
6405 : : else if (family == AF_INET6)
6406 : : net_dbg_ratelimited("drop open request from %pI6/%u\n",
6407 : : &ireq->ir_v6_rmt_addr, port);
6408 : : #endif
6409 : : }
6410 : :
6411 : : /* RFC3168 : 6.1.1 SYN packets must not have ECT/ECN bits set
6412 : : *
6413 : : * If we receive a SYN packet with these bits set, it means a
6414 : : * network is playing bad games with TOS bits. In order to
6415 : : * avoid possible false congestion notifications, we disable
6416 : : * TCP ECN negotiation.
6417 : : *
6418 : : * Exception: tcp_ca wants ECN. This is required for DCTCP
6419 : : * congestion control: Linux DCTCP asserts ECT on all packets,
6420 : : * including SYN, which is most optimal solution; however,
6421 : : * others, such as FreeBSD do not.
6422 : : *
6423 : : * Exception: At least one of the reserved bits of the TCP header (th->res1) is
6424 : : * set, indicating the use of a future TCP extension (such as AccECN). See
6425 : : * RFC8311 ยง4.3 which updates RFC3168 to allow the development of such
6426 : : * extensions.
6427 : : */
6428 : 0 : static void tcp_ecn_create_request(struct request_sock *req,
6429 : : const struct sk_buff *skb,
6430 : : const struct sock *listen_sk,
6431 : : const struct dst_entry *dst)
6432 : : {
6433 : : const struct tcphdr *th = tcp_hdr(skb);
6434 : : const struct net *net = sock_net(listen_sk);
6435 : 0 : bool th_ecn = th->ece && th->cwr;
6436 : : bool ect, ecn_ok;
6437 : : u32 ecn_ok_dst;
6438 : :
6439 [ # # ]: 0 : if (!th_ecn)
6440 : 0 : return;
6441 : :
6442 : 0 : ect = !INET_ECN_is_not_ect(TCP_SKB_CB(skb)->ip_dsfield);
6443 : : ecn_ok_dst = dst_feature(dst, DST_FEATURE_ECN_MASK);
6444 [ # # # # ]: 0 : ecn_ok = net->ipv4.sysctl_tcp_ecn || ecn_ok_dst;
6445 : :
6446 [ # # # # : 0 : if (((!ect || th->res1) && ecn_ok) || tcp_ca_needs_ecn(listen_sk) ||
# # # # #
# ]
6447 [ # # ]: 0 : (ecn_ok_dst & DST_FEATURE_ECN_CA) ||
6448 : : tcp_bpf_ca_needs_ecn((struct sock *)req))
6449 : 0 : inet_rsk(req)->ecn_ok = 1;
6450 : : }
6451 : :
6452 : 0 : static void tcp_openreq_init(struct request_sock *req,
6453 : : const struct tcp_options_received *rx_opt,
6454 : : struct sk_buff *skb, const struct sock *sk)
6455 : : {
6456 : : struct inet_request_sock *ireq = inet_rsk(req);
6457 : :
6458 : 0 : req->rsk_rcv_wnd = 0; /* So that tcp_send_synack() knows! */
6459 : 0 : req->cookie_ts = 0;
6460 : 0 : tcp_rsk(req)->rcv_isn = TCP_SKB_CB(skb)->seq;
6461 : 0 : tcp_rsk(req)->rcv_nxt = TCP_SKB_CB(skb)->seq + 1;
6462 : 0 : tcp_rsk(req)->snt_synack = 0;
6463 : 0 : tcp_rsk(req)->last_oow_ack_time = 0;
6464 : 0 : req->mss = rx_opt->mss_clamp;
6465 [ # # ]: 0 : req->ts_recent = rx_opt->saw_tstamp ? rx_opt->rcv_tsval : 0;
6466 : 0 : ireq->tstamp_ok = rx_opt->tstamp_ok;
6467 : 0 : ireq->sack_ok = rx_opt->sack_ok;
6468 : 0 : ireq->snd_wscale = rx_opt->snd_wscale;
6469 : 0 : ireq->wscale_ok = rx_opt->wscale_ok;
6470 : 0 : ireq->acked = 0;
6471 : 0 : ireq->ecn_ok = 0;
6472 : 0 : ireq->ir_rmt_port = tcp_hdr(skb)->source;
6473 : 0 : ireq->ir_num = ntohs(tcp_hdr(skb)->dest);
6474 : 0 : ireq->ir_mark = inet_request_mark(sk, skb);
6475 : : #if IS_ENABLED(CONFIG_SMC)
6476 : : ireq->smc_ok = rx_opt->smc_ok;
6477 : : #endif
6478 : 0 : }
6479 : :
6480 : 0 : struct request_sock *inet_reqsk_alloc(const struct request_sock_ops *ops,
6481 : : struct sock *sk_listener,
6482 : : bool attach_listener)
6483 : : {
6484 : 0 : struct request_sock *req = reqsk_alloc(ops, sk_listener,
6485 : : attach_listener);
6486 : :
6487 [ # # ]: 0 : if (req) {
6488 : : struct inet_request_sock *ireq = inet_rsk(req);
6489 : :
6490 : 0 : ireq->ireq_opt = NULL;
6491 : : #if IS_ENABLED(CONFIG_IPV6)
6492 : 0 : ireq->pktopts = NULL;
6493 : : #endif
6494 : 0 : atomic64_set(&ireq->ir_cookie, 0);
6495 : 0 : ireq->ireq_state = TCP_NEW_SYN_RECV;
6496 : : write_pnet(&ireq->ireq_net, sock_net(sk_listener));
6497 : 0 : ireq->ireq_family = sk_listener->sk_family;
6498 : : }
6499 : :
6500 : 0 : return req;
6501 : : }
6502 : : EXPORT_SYMBOL(inet_reqsk_alloc);
6503 : :
6504 : : /*
6505 : : * Return true if a syncookie should be sent
6506 : : */
6507 : 0 : static bool tcp_syn_flood_action(const struct sock *sk, const char *proto)
6508 : : {
6509 : : struct request_sock_queue *queue = &inet_csk(sk)->icsk_accept_queue;
6510 : : const char *msg = "Dropping request";
6511 : : bool want_cookie = false;
6512 : : struct net *net = sock_net(sk);
6513 : :
6514 : : #ifdef CONFIG_SYN_COOKIES
6515 [ # # ]: 0 : if (net->ipv4.sysctl_tcp_syncookies) {
6516 : : msg = "Sending cookies";
6517 : : want_cookie = true;
6518 : 0 : __NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPREQQFULLDOCOOKIES);
6519 : : } else
6520 : : #endif
6521 : 0 : __NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPREQQFULLDROP);
6522 : :
6523 [ # # # # ]: 0 : if (!queue->synflood_warned &&
6524 [ # # ]: 0 : net->ipv4.sysctl_tcp_syncookies != 2 &&
6525 : 0 : xchg(&queue->synflood_warned, 1) == 0)
6526 [ # # ]: 0 : net_info_ratelimited("%s: Possible SYN flooding on port %d. %s. Check SNMP counters.\n",
6527 : : proto, sk->sk_num, msg);
6528 : :
6529 : 0 : return want_cookie;
6530 : : }
6531 : :
6532 : 0 : static void tcp_reqsk_record_syn(const struct sock *sk,
6533 : : struct request_sock *req,
6534 : : const struct sk_buff *skb)
6535 : : {
6536 [ # # ]: 0 : if (tcp_sk(sk)->save_syn) {
6537 : 0 : u32 len = skb_network_header_len(skb) + tcp_hdrlen(skb);
6538 : : u32 *copy;
6539 : :
6540 : 0 : copy = kmalloc(len + sizeof(u32), GFP_ATOMIC);
6541 [ # # ]: 0 : if (copy) {
6542 : 0 : copy[0] = len;
6543 : 0 : memcpy(©[1], skb_network_header(skb), len);
6544 : 0 : req->saved_syn = copy;
6545 : : }
6546 : : }
6547 : 0 : }
6548 : :
6549 : : /* If a SYN cookie is required and supported, returns a clamped MSS value to be
6550 : : * used for SYN cookie generation.
6551 : : */
6552 : 0 : u16 tcp_get_syncookie_mss(struct request_sock_ops *rsk_ops,
6553 : : const struct tcp_request_sock_ops *af_ops,
6554 : : struct sock *sk, struct tcphdr *th)
6555 : : {
6556 : : struct tcp_sock *tp = tcp_sk(sk);
6557 : : u16 mss;
6558 : :
6559 [ # # # # ]: 0 : if (sock_net(sk)->ipv4.sysctl_tcp_syncookies != 2 &&
6560 : : !inet_csk_reqsk_queue_is_full(sk))
6561 : : return 0;
6562 : :
6563 [ # # ]: 0 : if (!tcp_syn_flood_action(sk, rsk_ops->slab_name))
6564 : : return 0;
6565 : :
6566 [ # # ]: 0 : if (sk_acceptq_is_full(sk)) {
6567 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_LISTENOVERFLOWS);
6568 : 0 : return 0;
6569 : : }
6570 : :
6571 : 0 : mss = tcp_parse_mss_option(th, tp->rx_opt.user_mss);
6572 [ # # ]: 0 : if (!mss)
6573 : 0 : mss = af_ops->mss_clamp;
6574 : :
6575 : 0 : return mss;
6576 : : }
6577 : : EXPORT_SYMBOL_GPL(tcp_get_syncookie_mss);
6578 : :
6579 : 0 : int tcp_conn_request(struct request_sock_ops *rsk_ops,
6580 : : const struct tcp_request_sock_ops *af_ops,
6581 : : struct sock *sk, struct sk_buff *skb)
6582 : : {
6583 : 0 : struct tcp_fastopen_cookie foc = { .len = -1 };
6584 : 0 : __u32 isn = TCP_SKB_CB(skb)->tcp_tw_isn;
6585 : : struct tcp_options_received tmp_opt;
6586 : : struct tcp_sock *tp = tcp_sk(sk);
6587 : : struct net *net = sock_net(sk);
6588 : : struct sock *fastopen_sk = NULL;
6589 : : struct request_sock *req;
6590 : : bool want_cookie = false;
6591 : : struct dst_entry *dst;
6592 : : struct flowi fl;
6593 : :
6594 : : /* TW buckets are converted to open requests without
6595 : : * limitations, they conserve resources and peer is
6596 : : * evidently real one.
6597 : : */
6598 [ # # # # ]: 0 : if ((net->ipv4.sysctl_tcp_syncookies == 2 ||
6599 [ # # ]: 0 : inet_csk_reqsk_queue_is_full(sk)) && !isn) {
6600 : 0 : want_cookie = tcp_syn_flood_action(sk, rsk_ops->slab_name);
6601 [ # # ]: 0 : if (!want_cookie)
6602 : : goto drop;
6603 : : }
6604 : :
6605 [ # # ]: 0 : if (sk_acceptq_is_full(sk)) {
6606 : 0 : NET_INC_STATS(sock_net(sk), LINUX_MIB_LISTENOVERFLOWS);
6607 : : goto drop;
6608 : : }
6609 : :
6610 : 0 : req = inet_reqsk_alloc(rsk_ops, sk, !want_cookie);
6611 [ # # ]: 0 : if (!req)
6612 : : goto drop;
6613 : :
6614 : 0 : tcp_rsk(req)->af_specific = af_ops;
6615 : 0 : tcp_rsk(req)->ts_off = 0;
6616 : :
6617 : : tcp_clear_options(&tmp_opt);
6618 : 0 : tmp_opt.mss_clamp = af_ops->mss_clamp;
6619 : 0 : tmp_opt.user_mss = tp->rx_opt.user_mss;
6620 [ # # ]: 0 : tcp_parse_options(sock_net(sk), skb, &tmp_opt, 0,
6621 : : want_cookie ? NULL : &foc);
6622 : :
6623 [ # # # # ]: 0 : if (want_cookie && !tmp_opt.saw_tstamp)
6624 : : tcp_clear_options(&tmp_opt);
6625 : :
6626 : : if (IS_ENABLED(CONFIG_SMC) && want_cookie)
6627 : : tmp_opt.smc_ok = 0;
6628 : :
6629 : 0 : tmp_opt.tstamp_ok = tmp_opt.saw_tstamp;
6630 : 0 : tcp_openreq_init(req, &tmp_opt, skb, sk);
6631 : 0 : inet_rsk(req)->no_srccheck = inet_sk(sk)->transparent;
6632 : :
6633 : : /* Note: tcp_v6_init_req() might override ir_iif for link locals */
6634 : 0 : inet_rsk(req)->ir_iif = inet_request_bound_dev_if(sk, skb);
6635 : :
6636 : 0 : af_ops->init_req(req, sk, skb);
6637 : :
6638 [ # # ]: 0 : if (security_inet_conn_request(sk, skb, req))
6639 : : goto drop_and_free;
6640 : :
6641 [ # # ]: 0 : if (tmp_opt.tstamp_ok)
6642 : 0 : tcp_rsk(req)->ts_off = af_ops->init_ts_off(net, skb);
6643 : :
6644 : 0 : dst = af_ops->route_req(sk, &fl, req);
6645 [ # # ]: 0 : if (!dst)
6646 : : goto drop_and_free;
6647 : :
6648 [ # # ]: 0 : if (!want_cookie && !isn) {
6649 : : /* Kill the following clause, if you dislike this way. */
6650 [ # # # # ]: 0 : if (!net->ipv4.sysctl_tcp_syncookies &&
6651 : 0 : (net->ipv4.sysctl_max_syn_backlog - inet_csk_reqsk_queue_len(sk) <
6652 [ # # ]: 0 : (net->ipv4.sysctl_max_syn_backlog >> 2)) &&
6653 : 0 : !tcp_peer_is_proven(req, dst)) {
6654 : : /* Without syncookies last quarter of
6655 : : * backlog is filled with destinations,
6656 : : * proven to be alive.
6657 : : * It means that we continue to communicate
6658 : : * to destinations, already remembered
6659 : : * to the moment of synflood.
6660 : : */
6661 : : pr_drop_req(req, ntohs(tcp_hdr(skb)->source),
6662 : : rsk_ops->family);
6663 : : goto drop_and_release;
6664 : : }
6665 : :
6666 : 0 : isn = af_ops->init_seq(skb);
6667 : : }
6668 : :
6669 : 0 : tcp_ecn_create_request(req, skb, sk, dst);
6670 : :
6671 [ # # ]: 0 : if (want_cookie) {
6672 : 0 : isn = cookie_init_sequence(af_ops, sk, skb, &req->mss);
6673 : 0 : req->cookie_ts = tmp_opt.tstamp_ok;
6674 [ # # ]: 0 : if (!tmp_opt.tstamp_ok)
6675 : 0 : inet_rsk(req)->ecn_ok = 0;
6676 : : }
6677 : :
6678 : 0 : tcp_rsk(req)->snt_isn = isn;
6679 : 0 : tcp_rsk(req)->txhash = net_tx_rndhash();
6680 : 0 : tcp_openreq_init_rwin(req, sk, dst);
6681 : 0 : sk_rx_queue_set(req_to_sk(req), skb);
6682 [ # # ]: 0 : if (!want_cookie) {
6683 : 0 : tcp_reqsk_record_syn(sk, req, skb);
6684 : 0 : fastopen_sk = tcp_try_fastopen(sk, skb, req, &foc, dst);
6685 : : }
6686 [ # # ]: 0 : if (fastopen_sk) {
6687 : 0 : af_ops->send_synack(fastopen_sk, dst, &fl, req,
6688 : : &foc, TCP_SYNACK_FASTOPEN);
6689 : : /* Add the child socket directly into the accept queue */
6690 [ # # ]: 0 : if (!inet_csk_reqsk_queue_add(sk, req, fastopen_sk)) {
6691 : 0 : reqsk_fastopen_remove(fastopen_sk, req, false);
6692 : : bh_unlock_sock(fastopen_sk);
6693 : 0 : sock_put(fastopen_sk);
6694 : 0 : goto drop_and_free;
6695 : : }
6696 : 0 : sk->sk_data_ready(sk);
6697 : : bh_unlock_sock(fastopen_sk);
6698 : 0 : sock_put(fastopen_sk);
6699 : : } else {
6700 : 0 : tcp_rsk(req)->tfo_listener = false;
6701 [ # # ]: 0 : if (!want_cookie)
6702 : 0 : inet_csk_reqsk_queue_hash_add(sk, req,
6703 : : tcp_timeout_init((struct sock *)req));
6704 [ # # ]: 0 : af_ops->send_synack(sk, dst, &fl, req, &foc,
6705 : : !want_cookie ? TCP_SYNACK_NORMAL :
6706 : : TCP_SYNACK_COOKIE);
6707 [ # # ]: 0 : if (want_cookie) {
6708 : 0 : reqsk_free(req);
6709 : 0 : return 0;
6710 : : }
6711 : : }
6712 : 0 : reqsk_put(req);
6713 : 0 : return 0;
6714 : :
6715 : : drop_and_release:
6716 : 0 : dst_release(dst);
6717 : : drop_and_free:
6718 : 0 : __reqsk_free(req);
6719 : : drop:
6720 : 0 : tcp_listendrop(sk);
6721 : 0 : return 0;
6722 : : }
6723 : : EXPORT_SYMBOL(tcp_conn_request);
|