aboutsummaryrefslogtreecommitdiffstats
path: root/net/sched/sch_generic.c
diff options
context:
space:
mode:
Diffstat (limited to 'net/sched/sch_generic.c')
-rw-r--r--net/sched/sch_generic.c9
1 files changed, 5 insertions, 4 deletions
diff --git a/net/sched/sch_generic.c b/net/sched/sch_generic.c
index 12a6e1a39fa0..848aab3693bd 100644
--- a/net/sched/sch_generic.c
+++ b/net/sched/sch_generic.c
@@ -68,7 +68,7 @@ static inline struct sk_buff *__skb_dequeue_bad_txq(struct Qdisc *q)
68 skb = __skb_dequeue(&q->skb_bad_txq); 68 skb = __skb_dequeue(&q->skb_bad_txq);
69 if (qdisc_is_percpu_stats(q)) { 69 if (qdisc_is_percpu_stats(q)) {
70 qdisc_qstats_cpu_backlog_dec(q, skb); 70 qdisc_qstats_cpu_backlog_dec(q, skb);
71 qdisc_qstats_atomic_qlen_dec(q); 71 qdisc_qstats_cpu_qlen_dec(q);
72 } else { 72 } else {
73 qdisc_qstats_backlog_dec(q, skb); 73 qdisc_qstats_backlog_dec(q, skb);
74 q->q.qlen--; 74 q->q.qlen--;
@@ -108,7 +108,7 @@ static inline void qdisc_enqueue_skb_bad_txq(struct Qdisc *q,
108 108
109 if (qdisc_is_percpu_stats(q)) { 109 if (qdisc_is_percpu_stats(q)) {
110 qdisc_qstats_cpu_backlog_inc(q, skb); 110 qdisc_qstats_cpu_backlog_inc(q, skb);
111 qdisc_qstats_atomic_qlen_inc(q); 111 qdisc_qstats_cpu_qlen_inc(q);
112 } else { 112 } else {
113 qdisc_qstats_backlog_inc(q, skb); 113 qdisc_qstats_backlog_inc(q, skb);
114 q->q.qlen++; 114 q->q.qlen++;
@@ -136,7 +136,7 @@ static inline void dev_requeue_skb(struct sk_buff *skb, struct Qdisc *q)
136 if (qdisc_is_percpu_stats(q)) { 136 if (qdisc_is_percpu_stats(q)) {
137 qdisc_qstats_cpu_requeues_inc(q); 137 qdisc_qstats_cpu_requeues_inc(q);
138 qdisc_qstats_cpu_backlog_inc(q, skb); 138 qdisc_qstats_cpu_backlog_inc(q, skb);
139 qdisc_qstats_atomic_qlen_inc(q); 139 qdisc_qstats_cpu_qlen_inc(q);
140 } else { 140 } else {
141 q->qstats.requeues++; 141 q->qstats.requeues++;
142 qdisc_qstats_backlog_inc(q, skb); 142 qdisc_qstats_backlog_inc(q, skb);
@@ -236,7 +236,7 @@ static struct sk_buff *dequeue_skb(struct Qdisc *q, bool *validate,
236 skb = __skb_dequeue(&q->gso_skb); 236 skb = __skb_dequeue(&q->gso_skb);
237 if (qdisc_is_percpu_stats(q)) { 237 if (qdisc_is_percpu_stats(q)) {
238 qdisc_qstats_cpu_backlog_dec(q, skb); 238 qdisc_qstats_cpu_backlog_dec(q, skb);
239 qdisc_qstats_atomic_qlen_dec(q); 239 qdisc_qstats_cpu_qlen_dec(q);
240 } else { 240 } else {
241 qdisc_qstats_backlog_dec(q, skb); 241 qdisc_qstats_backlog_dec(q, skb);
242 q->q.qlen--; 242 q->q.qlen--;
@@ -694,6 +694,7 @@ static void pfifo_fast_reset(struct Qdisc *qdisc)
694 struct gnet_stats_queue *q = per_cpu_ptr(qdisc->cpu_qstats, i); 694 struct gnet_stats_queue *q = per_cpu_ptr(qdisc->cpu_qstats, i);
695 695
696 q->backlog = 0; 696 q->backlog = 0;
697 q->qlen = 0;
697 } 698 }
698} 699}
699 700