Lines Matching +full:pn +full:- +full:retry +full:- +full:params

1 // SPDX-License-Identifier: GPL-2.0-or-later
23 * MAC address typo fixed. 010417 --ro
24 * Integrated. 020301 --DaveM
25 * Added multiskb option 020301 --DaveM
26 * Scaling of results. 020417--sigurdur@linpro.no
27 * Significant re-work of the module:
32 * and UDP-ports, for both source and destination, and can
35 * * Place 12-byte packet in UDP payload with magic number,
37 * * Add receiver code that detects dropped pkts, re-ordered pkts, and
38 * latencies (with micro-second) precision.
40 * --Ben Greear <greearb@candelatech.com>
50 * --ro
52 * Sept 10: Fixed threading/locking. Lots of bone-headed and more clever
53 * mistakes. Also merged in DaveM's patch in the -pre6 patch.
54 * --Ben Greear <greearb@candelatech.com>
56 * Integrated to 2.5.x 021029 --Lucio Maciel (luciomaciel@zipmail.com.br)
64 * also the thread checks the thread->control which is used for inter-process
76 * /proc/irq/XX/smp_affinity so TX-interrupts gets bound to the same CPU.
77 * --ro
80 * memleak 030710- KJP
82 * First "ranges" functionality for ipv6 030726 --ro
86 * Fixed unaligned access on IA-64 Grant Grundler <grundler@parisc-linux.org>
107 * 802.1Q/Q-in-Q support by Francesco Fondelli (FF) <francesco.fondelli@gmail.com>
186 pf(IPSRC_RND) /* IP-Src Random */ \
187 pf(IPDST_RND) /* IP-Dst Random */ \
189 pf(UDPSRC_RND) /* UDP-Src Random */ \
190 pf(UDPDST_RND) /* UDP-Dst Random */ \
198 pf(MACSRC_RND) /* MAC-Src Random */ \
199 pf(MACDST_RND) /* MAC-Dst Random */ \
234 /* If lock -- protects updating of if_list */
235 #define if_lock(t) mutex_lock(&(t->if_lock));
236 #define if_unlock(t) mutex_unlock(&(t->if_lock));
245 #define VLAN_TAG_SIZE(x) ((x)->vlan_id == 0xffff ? 0 : 4)
246 #define SVLAN_TAG_SIZE(x) ((x)->svlan_id == 0xffff ? 0 : 4)
272 struct list_head list; /* chaining in the thread's run-queue */
286 int removal_mark; /* non-zero => the device is marked for
290 u64 delay; /* nano-seconds */
307 u64 idle_acc; /* nano-seconds */
358 /* Maps 0-IMIX_PRECISION range to imix_entry based on probability*/
365 /* VLAN/SVLAN (802.1Q/Q-in-Q) */
405 struct net_device *odev; /* The out-going device.
409 * Set when the user specifies the out-going
484 static void pktgen_run_all_threads(struct pktgen_net *pn);
485 static void pktgen_reset_all_threads(struct pktgen_net *pn);
486 static void pktgen_stop_all_threads(struct pktgen_net *pn);
519 struct pktgen_net *pn = net_generic(current->nsproxy->net_ns, pg_net_id); in pgctrl_write() local
522 return -EPERM; in pgctrl_write()
525 return -EINVAL; in pgctrl_write()
531 return -EFAULT; in pgctrl_write()
533 data[count - 1] = 0; /* Strip trailing '\n' and terminate string */ in pgctrl_write()
536 pktgen_stop_all_threads(pn); in pgctrl_write()
538 pktgen_run_all_threads(pn); in pgctrl_write()
540 pktgen_reset_all_threads(pn); in pgctrl_write()
542 return -EINVAL; in pgctrl_write()
562 const struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_show()
568 "Params: count %llu min_pkt_size: %u max_pkt_size: %u\n", in pktgen_if_show()
569 (unsigned long long)pkt_dev->count, pkt_dev->min_pkt_size, in pktgen_if_show()
570 pkt_dev->max_pkt_size); in pktgen_if_show()
572 if (pkt_dev->n_imix_entries > 0) { in pktgen_if_show()
574 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in pktgen_if_show()
576 pkt_dev->imix_entries[i].size, in pktgen_if_show()
577 pkt_dev->imix_entries[i].weight); in pktgen_if_show()
584 pkt_dev->nfrags, (unsigned long long) pkt_dev->delay, in pktgen_if_show()
585 pkt_dev->clone_skb, pkt_dev->odevname); in pktgen_if_show()
587 seq_printf(seq, " flows: %u flowlen: %u\n", pkt_dev->cflows, in pktgen_if_show()
588 pkt_dev->lflow); in pktgen_if_show()
592 pkt_dev->queue_map_min, in pktgen_if_show()
593 pkt_dev->queue_map_max); in pktgen_if_show()
595 if (pkt_dev->skb_priority) in pktgen_if_show()
597 pkt_dev->skb_priority); in pktgen_if_show()
599 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
603 &pkt_dev->in6_saddr, in pktgen_if_show()
604 &pkt_dev->min_in6_saddr, &pkt_dev->max_in6_saddr, in pktgen_if_show()
605 &pkt_dev->in6_daddr, in pktgen_if_show()
606 &pkt_dev->min_in6_daddr, &pkt_dev->max_in6_daddr); in pktgen_if_show()
610 pkt_dev->dst_min, pkt_dev->dst_max); in pktgen_if_show()
613 pkt_dev->src_min, pkt_dev->src_max); in pktgen_if_show()
619 is_zero_ether_addr(pkt_dev->src_mac) ? in pktgen_if_show()
620 pkt_dev->odev->dev_addr : pkt_dev->src_mac); in pktgen_if_show()
623 seq_printf(seq, "%pM\n", pkt_dev->dst_mac); in pktgen_if_show()
628 pkt_dev->udp_src_min, pkt_dev->udp_src_max, in pktgen_if_show()
629 pkt_dev->udp_dst_min, pkt_dev->udp_dst_max); in pktgen_if_show()
633 pkt_dev->src_mac_count, pkt_dev->dst_mac_count); in pktgen_if_show()
635 if (pkt_dev->nr_labels) { in pktgen_if_show()
637 for (i = 0; i < pkt_dev->nr_labels; i++) in pktgen_if_show()
638 seq_printf(seq, "%08x%s", ntohl(pkt_dev->labels[i]), in pktgen_if_show()
639 i == pkt_dev->nr_labels-1 ? "\n" : ", "); in pktgen_if_show()
642 if (pkt_dev->vlan_id != 0xffff) in pktgen_if_show()
644 pkt_dev->vlan_id, pkt_dev->vlan_p, in pktgen_if_show()
645 pkt_dev->vlan_cfi); in pktgen_if_show()
647 if (pkt_dev->svlan_id != 0xffff) in pktgen_if_show()
649 pkt_dev->svlan_id, pkt_dev->svlan_p, in pktgen_if_show()
650 pkt_dev->svlan_cfi); in pktgen_if_show()
652 if (pkt_dev->tos) in pktgen_if_show()
653 seq_printf(seq, " tos: 0x%02x\n", pkt_dev->tos); in pktgen_if_show()
655 if (pkt_dev->traffic_class) in pktgen_if_show()
656 seq_printf(seq, " traffic_class: 0x%02x\n", pkt_dev->traffic_class); in pktgen_if_show()
658 if (pkt_dev->burst > 1) in pktgen_if_show()
659 seq_printf(seq, " burst: %d\n", pkt_dev->burst); in pktgen_if_show()
661 if (pkt_dev->node >= 0) in pktgen_if_show()
662 seq_printf(seq, " node: %d\n", pkt_dev->node); in pktgen_if_show()
664 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) in pktgen_if_show()
666 else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) in pktgen_if_show()
673 if (!pkt_dev->cflows) in pktgen_if_show()
676 if (pkt_dev->flags & (1 << i)) { in pktgen_if_show()
679 if (i == IPSEC_SHIFT && pkt_dev->spi) in pktgen_if_show()
680 seq_printf(seq, "spi:%u ", pkt_dev->spi); in pktgen_if_show()
689 /* not really stopped, more like last-running-at */ in pktgen_if_show()
690 stopped = pkt_dev->running ? ktime_get() : pkt_dev->stopped_at; in pktgen_if_show()
691 idle = pkt_dev->idle_acc; in pktgen_if_show()
695 "Current:\n pkts-sofar: %llu errors: %llu\n", in pktgen_if_show()
696 (unsigned long long)pkt_dev->sofar, in pktgen_if_show()
697 (unsigned long long)pkt_dev->errors); in pktgen_if_show()
699 if (pkt_dev->n_imix_entries > 0) { in pktgen_if_show()
703 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in pktgen_if_show()
705 pkt_dev->imix_entries[i].size, in pktgen_if_show()
706 pkt_dev->imix_entries[i].count_so_far); in pktgen_if_show()
713 (unsigned long long) ktime_to_us(pkt_dev->started_at), in pktgen_if_show()
719 pkt_dev->seq_num, pkt_dev->cur_dst_mac_offset, in pktgen_if_show()
720 pkt_dev->cur_src_mac_offset); in pktgen_if_show()
722 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
724 &pkt_dev->cur_in6_saddr, in pktgen_if_show()
725 &pkt_dev->cur_in6_daddr); in pktgen_if_show()
728 &pkt_dev->cur_saddr, &pkt_dev->cur_daddr); in pktgen_if_show()
731 pkt_dev->cur_udp_dst, pkt_dev->cur_udp_src); in pktgen_if_show()
733 seq_printf(seq, " cur_queue_map: %u\n", pkt_dev->cur_queue_map); in pktgen_if_show()
735 seq_printf(seq, " flows: %u\n", pkt_dev->nflows); in pktgen_if_show()
737 if (pkt_dev->result[0]) in pktgen_if_show()
738 seq_printf(seq, "Result: %s\n", pkt_dev->result); in pktgen_if_show()
757 return -EFAULT; in hex32_arg()
775 return -EFAULT; in count_trail_chars()
801 return -EFAULT; in num_arg()
804 *num += c - '0'; in num_arg()
818 return -EFAULT; in strn_len()
847 pkt_dev->n_imix_entries = 0; in get_imix_entries()
853 if (pkt_dev->n_imix_entries >= MAX_IMIX_ENTRIES) in get_imix_entries()
854 return -E2BIG; in get_imix_entries()
861 return -EFAULT; in get_imix_entries()
864 return -EINVAL; in get_imix_entries()
874 return -EINVAL; in get_imix_entries()
876 pkt_dev->imix_entries[pkt_dev->n_imix_entries].size = size; in get_imix_entries()
877 pkt_dev->imix_entries[pkt_dev->n_imix_entries].weight = weight; in get_imix_entries()
881 return -EFAULT; in get_imix_entries()
884 pkt_dev->n_imix_entries++; in get_imix_entries()
897 pkt_dev->nr_labels = 0; in get_labels()
903 pkt_dev->labels[n] = htonl(tmp); in get_labels()
904 if (pkt_dev->labels[n] & MPLS_STACK_BOTTOM) in get_labels()
905 pkt_dev->flags |= F_MPLS_RND; in get_labels()
908 return -EFAULT; in get_labels()
912 return -E2BIG; in get_labels()
915 pkt_dev->nr_labels = n; in get_labels()
952 struct seq_file *seq = file->private_data; in pktgen_if_write()
953 struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_write()
961 pg_result = &(pkt_dev->result[0]); in pktgen_if_write()
965 return -EINVAL; in pktgen_if_write()
978 len = strn_len(&user_buffer[i], sizeof(name) - 1); in pktgen_if_write()
984 return -EFAULT; in pktgen_if_write()
987 max = count - i; in pktgen_if_write()
1001 pr_debug("%s,%zu buffer -:%s:-\n", name, count, tp); in pktgen_if_write()
1013 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
1014 pkt_dev->min_pkt_size = value; in pktgen_if_write()
1015 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1018 pkt_dev->min_pkt_size); in pktgen_if_write()
1030 if (value != pkt_dev->max_pkt_size) { in pktgen_if_write()
1031 pkt_dev->max_pkt_size = value; in pktgen_if_write()
1032 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1035 pkt_dev->max_pkt_size); in pktgen_if_write()
1049 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
1050 pkt_dev->min_pkt_size = value; in pktgen_if_write()
1051 pkt_dev->max_pkt_size = value; in pktgen_if_write()
1052 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1054 sprintf(pg_result, "OK: pkt_size=%d", pkt_dev->min_pkt_size); in pktgen_if_write()
1059 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1060 return -EINVAL; in pktgen_if_write()
1089 pkt_dev->nfrags = value; in pktgen_if_write()
1090 sprintf(pg_result, "OK: frags=%d", pkt_dev->nfrags); in pktgen_if_write()
1100 pkt_dev->delay = ULLONG_MAX; in pktgen_if_write()
1102 pkt_dev->delay = (u64)value; in pktgen_if_write()
1105 (unsigned long long) pkt_dev->delay); in pktgen_if_write()
1116 pkt_dev->delay = pkt_dev->min_pkt_size*8*NSEC_PER_USEC/value; in pktgen_if_write()
1118 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1131 pkt_dev->delay = NSEC_PER_SEC/value; in pktgen_if_write()
1133 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1144 if (value != pkt_dev->udp_src_min) { in pktgen_if_write()
1145 pkt_dev->udp_src_min = value; in pktgen_if_write()
1146 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1148 sprintf(pg_result, "OK: udp_src_min=%u", pkt_dev->udp_src_min); in pktgen_if_write()
1157 if (value != pkt_dev->udp_dst_min) { in pktgen_if_write()
1158 pkt_dev->udp_dst_min = value; in pktgen_if_write()
1159 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1161 sprintf(pg_result, "OK: udp_dst_min=%u", pkt_dev->udp_dst_min); in pktgen_if_write()
1170 if (value != pkt_dev->udp_src_max) { in pktgen_if_write()
1171 pkt_dev->udp_src_max = value; in pktgen_if_write()
1172 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1174 sprintf(pg_result, "OK: udp_src_max=%u", pkt_dev->udp_src_max); in pktgen_if_write()
1183 if (value != pkt_dev->udp_dst_max) { in pktgen_if_write()
1184 pkt_dev->udp_dst_max = value; in pktgen_if_write()
1185 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1187 sprintf(pg_result, "OK: udp_dst_max=%u", pkt_dev->udp_dst_max); in pktgen_if_write()
1198 ((pkt_dev->xmit_mode == M_NETIF_RECEIVE) || in pktgen_if_write()
1199 !(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))) in pktgen_if_write()
1200 return -ENOTSUPP; in pktgen_if_write()
1201 if (value > 0 && pkt_dev->n_imix_entries > 0) in pktgen_if_write()
1202 return -EINVAL; in pktgen_if_write()
1205 pkt_dev->clone_skb = value; in pktgen_if_write()
1207 sprintf(pg_result, "OK: clone_skb=%d", pkt_dev->clone_skb); in pktgen_if_write()
1216 pkt_dev->count = value; in pktgen_if_write()
1218 (unsigned long long)pkt_dev->count); in pktgen_if_write()
1227 if (pkt_dev->src_mac_count != value) { in pktgen_if_write()
1228 pkt_dev->src_mac_count = value; in pktgen_if_write()
1229 pkt_dev->cur_src_mac_offset = 0; in pktgen_if_write()
1232 pkt_dev->src_mac_count); in pktgen_if_write()
1241 if (pkt_dev->dst_mac_count != value) { in pktgen_if_write()
1242 pkt_dev->dst_mac_count = value; in pktgen_if_write()
1243 pkt_dev->cur_dst_mac_offset = 0; in pktgen_if_write()
1246 pkt_dev->dst_mac_count); in pktgen_if_write()
1256 ((pkt_dev->xmit_mode == M_QUEUE_XMIT) || in pktgen_if_write()
1257 ((pkt_dev->xmit_mode == M_START_XMIT) && in pktgen_if_write()
1258 (!(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))))) in pktgen_if_write()
1259 return -ENOTSUPP; in pktgen_if_write()
1260 pkt_dev->burst = value < 1 ? 1 : value; in pktgen_if_write()
1261 sprintf(pg_result, "OK: burst=%u", pkt_dev->burst); in pktgen_if_write()
1272 pkt_dev->node = value; in pktgen_if_write()
1273 sprintf(pg_result, "OK: node=%d", pkt_dev->node); in pktgen_if_write()
1274 if (pkt_dev->page) { in pktgen_if_write()
1275 put_page(pkt_dev->page); in pktgen_if_write()
1276 pkt_dev->page = NULL; in pktgen_if_write()
1287 len = strn_len(&user_buffer[i], sizeof(f) - 1); in pktgen_if_write()
1292 return -EFAULT; in pktgen_if_write()
1296 pkt_dev->xmit_mode = M_START_XMIT; in pktgen_if_write()
1299 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1300 return -ENOTSUPP; in pktgen_if_write()
1302 pkt_dev->xmit_mode = M_NETIF_RECEIVE; in pktgen_if_write()
1307 pkt_dev->last_ok = 1; in pktgen_if_write()
1309 pkt_dev->xmit_mode = M_QUEUE_XMIT; in pktgen_if_write()
1310 pkt_dev->last_ok = 1; in pktgen_if_write()
1313 "xmit_mode -:%s:- unknown\nAvailable modes: %s", in pktgen_if_write()
1326 len = strn_len(&user_buffer[i], sizeof(f) - 1); in pktgen_if_write()
1331 return -EFAULT; in pktgen_if_write()
1338 pkt_dev->flags &= ~flag; in pktgen_if_write()
1340 pkt_dev->flags |= flag; in pktgen_if_write()
1343 "Flag -:%s:- unknown\nAvailable flags, (prepend ! to un-set flag):\n%s", in pktgen_if_write()
1356 sprintf(pg_result, "OK: flags=0x%x", pkt_dev->flags); in pktgen_if_write()
1360 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_min) - 1); in pktgen_if_write()
1365 return -EFAULT; in pktgen_if_write()
1367 if (strcmp(buf, pkt_dev->dst_min) != 0) { in pktgen_if_write()
1368 memset(pkt_dev->dst_min, 0, sizeof(pkt_dev->dst_min)); in pktgen_if_write()
1369 strcpy(pkt_dev->dst_min, buf); in pktgen_if_write()
1370 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_if_write()
1371 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_if_write()
1374 pr_debug("dst_min set to: %s\n", pkt_dev->dst_min); in pktgen_if_write()
1376 sprintf(pg_result, "OK: dst_min=%s", pkt_dev->dst_min); in pktgen_if_write()
1380 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_max) - 1); in pktgen_if_write()
1385 return -EFAULT; in pktgen_if_write()
1387 if (strcmp(buf, pkt_dev->dst_max) != 0) { in pktgen_if_write()
1388 memset(pkt_dev->dst_max, 0, sizeof(pkt_dev->dst_max)); in pktgen_if_write()
1389 strcpy(pkt_dev->dst_max, buf); in pktgen_if_write()
1390 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_if_write()
1391 pkt_dev->cur_daddr = pkt_dev->daddr_max; in pktgen_if_write()
1394 pr_debug("dst_max set to: %s\n", pkt_dev->dst_max); in pktgen_if_write()
1396 sprintf(pg_result, "OK: dst_max=%s", pkt_dev->dst_max); in pktgen_if_write()
1400 len = strn_len(&user_buffer[i], sizeof(buf) - 1); in pktgen_if_write()
1404 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1407 return -EFAULT; in pktgen_if_write()
1410 in6_pton(buf, -1, pkt_dev->in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1411 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_daddr); in pktgen_if_write()
1413 pkt_dev->cur_in6_daddr = pkt_dev->in6_daddr; in pktgen_if_write()
1423 len = strn_len(&user_buffer[i], sizeof(buf) - 1); in pktgen_if_write()
1427 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1430 return -EFAULT; in pktgen_if_write()
1433 in6_pton(buf, -1, pkt_dev->min_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1434 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->min_in6_daddr); in pktgen_if_write()
1436 pkt_dev->cur_in6_daddr = pkt_dev->min_in6_daddr; in pktgen_if_write()
1445 len = strn_len(&user_buffer[i], sizeof(buf) - 1); in pktgen_if_write()
1449 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1452 return -EFAULT; in pktgen_if_write()
1455 in6_pton(buf, -1, pkt_dev->max_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1456 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->max_in6_daddr); in pktgen_if_write()
1466 len = strn_len(&user_buffer[i], sizeof(buf) - 1); in pktgen_if_write()
1470 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1473 return -EFAULT; in pktgen_if_write()
1476 in6_pton(buf, -1, pkt_dev->in6_saddr.s6_addr, -1, NULL); in pktgen_if_write()
1477 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_saddr); in pktgen_if_write()
1479 pkt_dev->cur_in6_saddr = pkt_dev->in6_saddr; in pktgen_if_write()
1489 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_min) - 1); in pktgen_if_write()
1494 return -EFAULT; in pktgen_if_write()
1496 if (strcmp(buf, pkt_dev->src_min) != 0) { in pktgen_if_write()
1497 memset(pkt_dev->src_min, 0, sizeof(pkt_dev->src_min)); in pktgen_if_write()
1498 strcpy(pkt_dev->src_min, buf); in pktgen_if_write()
1499 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_if_write()
1500 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_if_write()
1503 pr_debug("src_min set to: %s\n", pkt_dev->src_min); in pktgen_if_write()
1505 sprintf(pg_result, "OK: src_min=%s", pkt_dev->src_min); in pktgen_if_write()
1509 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_max) - 1); in pktgen_if_write()
1514 return -EFAULT; in pktgen_if_write()
1516 if (strcmp(buf, pkt_dev->src_max) != 0) { in pktgen_if_write()
1517 memset(pkt_dev->src_max, 0, sizeof(pkt_dev->src_max)); in pktgen_if_write()
1518 strcpy(pkt_dev->src_max, buf); in pktgen_if_write()
1519 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_if_write()
1520 pkt_dev->cur_saddr = pkt_dev->saddr_max; in pktgen_if_write()
1523 pr_debug("src_max set to: %s\n", pkt_dev->src_max); in pktgen_if_write()
1525 sprintf(pg_result, "OK: src_max=%s", pkt_dev->src_max); in pktgen_if_write()
1529 len = strn_len(&user_buffer[i], sizeof(valstr) - 1); in pktgen_if_write()
1535 return -EFAULT; in pktgen_if_write()
1537 if (!mac_pton(valstr, pkt_dev->dst_mac)) in pktgen_if_write()
1538 return -EINVAL; in pktgen_if_write()
1540 ether_addr_copy(&pkt_dev->hh[0], pkt_dev->dst_mac); in pktgen_if_write()
1542 sprintf(pg_result, "OK: dstmac %pM", pkt_dev->dst_mac); in pktgen_if_write()
1546 len = strn_len(&user_buffer[i], sizeof(valstr) - 1); in pktgen_if_write()
1552 return -EFAULT; in pktgen_if_write()
1554 if (!mac_pton(valstr, pkt_dev->src_mac)) in pktgen_if_write()
1555 return -EINVAL; in pktgen_if_write()
1557 ether_addr_copy(&pkt_dev->hh[6], pkt_dev->src_mac); in pktgen_if_write()
1559 sprintf(pg_result, "OK: srcmac %pM", pkt_dev->src_mac); in pktgen_if_write()
1578 pkt_dev->cflows = value; in pktgen_if_write()
1579 sprintf(pg_result, "OK: flows=%u", pkt_dev->cflows); in pktgen_if_write()
1589 pkt_dev->spi = value; in pktgen_if_write()
1590 sprintf(pg_result, "OK: spi=%u", pkt_dev->spi); in pktgen_if_write()
1600 pkt_dev->lflow = value; in pktgen_if_write()
1601 sprintf(pg_result, "OK: flowlen=%u", pkt_dev->lflow); in pktgen_if_write()
1611 pkt_dev->queue_map_min = value; in pktgen_if_write()
1612 sprintf(pg_result, "OK: queue_map_min=%u", pkt_dev->queue_map_min); in pktgen_if_write()
1622 pkt_dev->queue_map_max = value; in pktgen_if_write()
1623 sprintf(pg_result, "OK: queue_map_max=%u", pkt_dev->queue_map_max); in pktgen_if_write()
1635 for (n = 0; n < pkt_dev->nr_labels; n++) in pktgen_if_write()
1637 "%08x%s", ntohl(pkt_dev->labels[n]), in pktgen_if_write()
1638 n == pkt_dev->nr_labels-1 ? "" : ","); in pktgen_if_write()
1640 if (pkt_dev->nr_labels && pkt_dev->vlan_id != 0xffff) { in pktgen_if_write()
1641 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1642 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1657 pkt_dev->vlan_id = value; /* turn on VLAN */ in pktgen_if_write()
1662 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1665 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1666 sprintf(pg_result, "OK: vlan_id=%u", pkt_dev->vlan_id); in pktgen_if_write()
1668 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1669 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1683 if ((value <= 7) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1684 pkt_dev->vlan_p = value; in pktgen_if_write()
1685 sprintf(pg_result, "OK: vlan_p=%u", pkt_dev->vlan_p); in pktgen_if_write()
1687 sprintf(pg_result, "ERROR: vlan_p must be 0-7"); in pktgen_if_write()
1698 if ((value <= 1) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1699 pkt_dev->vlan_cfi = value; in pktgen_if_write()
1700 sprintf(pg_result, "OK: vlan_cfi=%u", pkt_dev->vlan_cfi); in pktgen_if_write()
1702 sprintf(pg_result, "ERROR: vlan_cfi must be 0-1"); in pktgen_if_write()
1713 if ((value <= 4095) && ((pkt_dev->vlan_id != 0xffff))) { in pktgen_if_write()
1714 pkt_dev->svlan_id = value; /* turn on SVLAN */ in pktgen_if_write()
1719 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1722 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1723 sprintf(pg_result, "OK: svlan_id=%u", pkt_dev->svlan_id); in pktgen_if_write()
1725 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1726 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1740 if ((value <= 7) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1741 pkt_dev->svlan_p = value; in pktgen_if_write()
1742 sprintf(pg_result, "OK: svlan_p=%u", pkt_dev->svlan_p); in pktgen_if_write()
1744 sprintf(pg_result, "ERROR: svlan_p must be 0-7"); in pktgen_if_write()
1755 if ((value <= 1) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1756 pkt_dev->svlan_cfi = value; in pktgen_if_write()
1757 sprintf(pg_result, "OK: svlan_cfi=%u", pkt_dev->svlan_cfi); in pktgen_if_write()
1759 sprintf(pg_result, "ERROR: svlan_cfi must be 0-1"); in pktgen_if_write()
1772 pkt_dev->tos = tmp_value; in pktgen_if_write()
1773 sprintf(pg_result, "OK: tos=0x%02x", pkt_dev->tos); in pktgen_if_write()
1775 sprintf(pg_result, "ERROR: tos must be 00-ff"); in pktgen_if_write()
1788 pkt_dev->traffic_class = tmp_value; in pktgen_if_write()
1789 sprintf(pg_result, "OK: traffic_class=0x%02x", pkt_dev->traffic_class); in pktgen_if_write()
1791 sprintf(pg_result, "ERROR: traffic_class must be 00-ff"); in pktgen_if_write()
1802 pkt_dev->skb_priority = value; in pktgen_if_write()
1804 pkt_dev->skb_priority); in pktgen_if_write()
1808 sprintf(pkt_dev->result, "No such parameter \"%s\"", name); in pktgen_if_write()
1809 return -EINVAL; in pktgen_if_write()
1827 struct pktgen_thread *t = seq->private; in pktgen_thread_show()
1835 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1836 if (pkt_dev->running) in pktgen_thread_show()
1837 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1841 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1842 if (!pkt_dev->running) in pktgen_thread_show()
1843 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1845 if (t->result[0]) in pktgen_thread_show()
1846 seq_printf(seq, "\nResult: %s\n", t->result); in pktgen_thread_show()
1859 struct seq_file *seq = file->private_data; in pktgen_thread_write()
1860 struct pktgen_thread *t = seq->private; in pktgen_thread_write()
1867 return -EINVAL; in pktgen_thread_write()
1879 len = strn_len(&user_buffer[i], sizeof(name) - 1); in pktgen_thread_write()
1885 return -EFAULT; in pktgen_thread_write()
1888 max = count - i; in pktgen_thread_write()
1900 ret = -EINVAL; in pktgen_thread_write()
1904 pg_result = &(t->result[0]); in pktgen_thread_write()
1909 len = strn_len(&user_buffer[i], sizeof(f) - 1); in pktgen_thread_write()
1915 return -EFAULT; in pktgen_thread_write()
1930 t->control |= T_REMDEVALL; in pktgen_thread_write()
1932 schedule_timeout_interruptible(msecs_to_jiffies(125)); /* Propagate thread->control */ in pktgen_thread_write()
1939 sprintf(pg_result, "OK: Note! max_before_softirq is obsoleted -- Do not use"); in pktgen_thread_write()
1944 ret = -EINVAL; in pktgen_thread_write()
1963 static struct pktgen_dev *__pktgen_NN_threads(const struct pktgen_net *pn, in __pktgen_NN_threads() argument
1970 list_for_each_entry(t, &pn->pktgen_threads, th_list) { in __pktgen_NN_threads()
1974 pkt_dev->removal_mark = 1; in __pktgen_NN_threads()
1975 t->control |= T_REMDEV; in __pktgen_NN_threads()
1986 static void pktgen_mark_device(const struct pktgen_net *pn, const char *ifname) in pktgen_mark_device() argument
1997 pkt_dev = __pktgen_NN_threads(pn, ifname, REMOVE); in pktgen_mark_device()
2018 static void pktgen_change_name(const struct pktgen_net *pn, struct net_device *dev) in pktgen_change_name() argument
2024 list_for_each_entry(t, &pn->pktgen_threads, th_list) { in pktgen_change_name()
2028 list_for_each_entry(pkt_dev, &t->if_list, list) { in pktgen_change_name()
2029 if (pkt_dev->odev != dev) in pktgen_change_name()
2032 proc_remove(pkt_dev->entry); in pktgen_change_name()
2034 pkt_dev->entry = proc_create_data(dev->name, 0600, in pktgen_change_name()
2035 pn->proc_dir, in pktgen_change_name()
2038 if (!pkt_dev->entry) in pktgen_change_name()
2040 dev->name); in pktgen_change_name()
2052 struct pktgen_net *pn = net_generic(dev_net(dev), pg_net_id); in pktgen_device_event() local
2054 if (pn->pktgen_exiting) in pktgen_device_event()
2063 pktgen_change_name(pn, dev); in pktgen_device_event()
2067 pktgen_mark_device(pn, dev->name); in pktgen_device_event()
2074 static struct net_device *pktgen_dev_get_by_name(const struct pktgen_net *pn, in pktgen_dev_get_by_name() argument
2089 return dev_get_by_name(pn->net, b); in pktgen_dev_get_by_name()
2095 static int pktgen_setup_dev(const struct pktgen_net *pn, in pktgen_setup_dev() argument
2102 if (pkt_dev->odev) { in pktgen_setup_dev()
2103 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_setup_dev()
2104 pkt_dev->odev = NULL; in pktgen_setup_dev()
2107 odev = pktgen_dev_get_by_name(pn, pkt_dev, ifname); in pktgen_setup_dev()
2110 return -ENODEV; in pktgen_setup_dev()
2113 if (odev->type != ARPHRD_ETHER && odev->type != ARPHRD_LOOPBACK) { in pktgen_setup_dev()
2115 err = -EINVAL; in pktgen_setup_dev()
2118 err = -ENETDOWN; in pktgen_setup_dev()
2120 pkt_dev->odev = odev; in pktgen_setup_dev()
2121 netdev_tracker_alloc(odev, &pkt_dev->dev_tracker, GFP_KERNEL); in pktgen_setup_dev()
2136 if (!pkt_dev->odev) { in pktgen_setup_inject()
2137 pr_err("ERROR: pkt_dev->odev == NULL in setup_inject\n"); in pktgen_setup_inject()
2138 sprintf(pkt_dev->result, in pktgen_setup_inject()
2139 "ERROR: pkt_dev->odev == NULL in setup_inject.\n"); in pktgen_setup_inject()
2143 /* make sure that we don't pick a non-existing transmit queue */ in pktgen_setup_inject()
2144 ntxq = pkt_dev->odev->real_num_tx_queues; in pktgen_setup_inject()
2146 if (ntxq <= pkt_dev->queue_map_min) { in pktgen_setup_inject()
2147 …pr_warn("WARNING: Requested queue_map_min (zero-based) (%d) exceeds valid range [0 - %d] for (%d) … in pktgen_setup_inject()
2148 pkt_dev->queue_map_min, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2149 pkt_dev->odevname); in pktgen_setup_inject()
2150 pkt_dev->queue_map_min = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2152 if (pkt_dev->queue_map_max >= ntxq) { in pktgen_setup_inject()
2153 …pr_warn("WARNING: Requested queue_map_max (zero-based) (%d) exceeds valid range [0 - %d] for (%d) … in pktgen_setup_inject()
2154 pkt_dev->queue_map_max, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2155 pkt_dev->odevname); in pktgen_setup_inject()
2156 pkt_dev->queue_map_max = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2161 if (is_zero_ether_addr(pkt_dev->src_mac)) in pktgen_setup_inject()
2162 ether_addr_copy(&(pkt_dev->hh[6]), pkt_dev->odev->dev_addr); in pktgen_setup_inject()
2165 ether_addr_copy(&(pkt_dev->hh[0]), pkt_dev->dst_mac); in pktgen_setup_inject()
2167 if (pkt_dev->flags & F_IPV6) { in pktgen_setup_inject()
2171 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2172 pkt_dev->min_pkt_size = 14 + sizeof(struct ipv6hdr) in pktgen_setup_inject()
2175 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2179 if (pkt_dev->cur_in6_saddr.s6_addr[i]) { in pktgen_setup_inject()
2193 idev = __in6_dev_get(pkt_dev->odev); in pktgen_setup_inject()
2197 read_lock_bh(&idev->lock); in pktgen_setup_inject()
2198 list_for_each_entry(ifp, &idev->addr_list, if_list) { in pktgen_setup_inject()
2199 if ((ifp->scope & IFA_LINK) && in pktgen_setup_inject()
2200 !(ifp->flags & IFA_F_TENTATIVE)) { in pktgen_setup_inject()
2201 pkt_dev->cur_in6_saddr = ifp->addr; in pktgen_setup_inject()
2206 read_unlock_bh(&idev->lock); in pktgen_setup_inject()
2213 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2214 pkt_dev->min_pkt_size = 14 + sizeof(struct iphdr) in pktgen_setup_inject()
2217 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2220 pkt_dev->saddr_min = 0; in pktgen_setup_inject()
2221 pkt_dev->saddr_max = 0; in pktgen_setup_inject()
2222 if (strlen(pkt_dev->src_min) == 0) { in pktgen_setup_inject()
2227 in_dev = __in_dev_get_rcu(pkt_dev->odev); in pktgen_setup_inject()
2231 ifa = rcu_dereference(in_dev->ifa_list); in pktgen_setup_inject()
2233 pkt_dev->saddr_min = ifa->ifa_address; in pktgen_setup_inject()
2234 pkt_dev->saddr_max = pkt_dev->saddr_min; in pktgen_setup_inject()
2239 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_setup_inject()
2240 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_setup_inject()
2243 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_setup_inject()
2244 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_setup_inject()
2247 pkt_dev->cur_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2248 if (pkt_dev->min_pkt_size > pkt_dev->max_pkt_size) in pktgen_setup_inject()
2249 pkt_dev->max_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2251 pkt_dev->cur_dst_mac_offset = 0; in pktgen_setup_inject()
2252 pkt_dev->cur_src_mac_offset = 0; in pktgen_setup_inject()
2253 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_setup_inject()
2254 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_setup_inject()
2255 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in pktgen_setup_inject()
2256 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in pktgen_setup_inject()
2257 pkt_dev->nflows = 0; in pktgen_setup_inject()
2289 } while (t.task && pkt_dev->running && !signal_pending(current)); in spin()
2294 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(end_time, start_time)); in spin()
2296 pkt_dev->next_tx = ktime_add_ns(spin_until, pkt_dev->delay); in spin()
2302 pkt_dev->pkt_overhead = 0; in set_pkt_overhead()
2303 pkt_dev->pkt_overhead += pkt_dev->nr_labels*sizeof(u32); in set_pkt_overhead()
2304 pkt_dev->pkt_overhead += VLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2305 pkt_dev->pkt_overhead += SVLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2310 return !!(pkt_dev->flows[flow].flags & F_INIT); in f_seen()
2315 int flow = pkt_dev->curfl; in f_pick()
2317 if (pkt_dev->flags & F_FLOW_SEQ) { in f_pick()
2318 if (pkt_dev->flows[flow].count >= pkt_dev->lflow) { in f_pick()
2320 pkt_dev->flows[flow].count = 0; in f_pick()
2321 pkt_dev->flows[flow].flags = 0; in f_pick()
2322 pkt_dev->curfl += 1; in f_pick()
2323 if (pkt_dev->curfl >= pkt_dev->cflows) in f_pick()
2324 pkt_dev->curfl = 0; /*reset */ in f_pick()
2327 flow = get_random_u32_below(pkt_dev->cflows); in f_pick()
2328 pkt_dev->curfl = flow; in f_pick()
2330 if (pkt_dev->flows[flow].count > pkt_dev->lflow) { in f_pick()
2331 pkt_dev->flows[flow].count = 0; in f_pick()
2332 pkt_dev->flows[flow].flags = 0; in f_pick()
2336 return pkt_dev->curfl; in f_pick()
2347 struct xfrm_state *x = pkt_dev->flows[flow].x; in get_ipsec_sa()
2348 struct pktgen_net *pn = net_generic(dev_net(pkt_dev->odev), pg_net_id); in get_ipsec_sa() local
2351 if (pkt_dev->spi) { in get_ipsec_sa()
2355 x = xfrm_state_lookup_byspi(pn->net, htonl(pkt_dev->spi), AF_INET); in get_ipsec_sa()
2358 x = xfrm_stateonly_find(pn->net, DUMMY_MARK, 0, in get_ipsec_sa()
2359 (xfrm_address_t *)&pkt_dev->cur_daddr, in get_ipsec_sa()
2360 (xfrm_address_t *)&pkt_dev->cur_saddr, in get_ipsec_sa()
2362 pkt_dev->ipsmode, in get_ipsec_sa()
2363 pkt_dev->ipsproto, 0); in get_ipsec_sa()
2366 pkt_dev->flows[flow].x = x; in get_ipsec_sa()
2368 pkt_dev->pkt_overhead += x->props.header_len; in get_ipsec_sa()
2377 if (pkt_dev->flags & F_QUEUE_MAP_CPU) in set_cur_queue_map()
2378 pkt_dev->cur_queue_map = smp_processor_id(); in set_cur_queue_map()
2380 else if (pkt_dev->queue_map_min <= pkt_dev->queue_map_max) { in set_cur_queue_map()
2382 if (pkt_dev->flags & F_QUEUE_MAP_RND) { in set_cur_queue_map()
2383 t = get_random_u32_inclusive(pkt_dev->queue_map_min, in set_cur_queue_map()
2384 pkt_dev->queue_map_max); in set_cur_queue_map()
2386 t = pkt_dev->cur_queue_map + 1; in set_cur_queue_map()
2387 if (t > pkt_dev->queue_map_max) in set_cur_queue_map()
2388 t = pkt_dev->queue_map_min; in set_cur_queue_map()
2390 pkt_dev->cur_queue_map = t; in set_cur_queue_map()
2392 pkt_dev->cur_queue_map = pkt_dev->cur_queue_map % pkt_dev->odev->real_num_tx_queues; in set_cur_queue_map()
2396 * for IP src/dest, UDP src/dst port, MAC-Addr src/dst
2404 if (pkt_dev->cflows) in mod_cur_headers()
2408 if (pkt_dev->src_mac_count > 1) { in mod_cur_headers()
2412 if (pkt_dev->flags & F_MACSRC_RND) in mod_cur_headers()
2413 mc = get_random_u32_below(pkt_dev->src_mac_count); in mod_cur_headers()
2415 mc = pkt_dev->cur_src_mac_offset++; in mod_cur_headers()
2416 if (pkt_dev->cur_src_mac_offset >= in mod_cur_headers()
2417 pkt_dev->src_mac_count) in mod_cur_headers()
2418 pkt_dev->cur_src_mac_offset = 0; in mod_cur_headers()
2421 tmp = pkt_dev->src_mac[5] + (mc & 0xFF); in mod_cur_headers()
2422 pkt_dev->hh[11] = tmp; in mod_cur_headers()
2423 tmp = (pkt_dev->src_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2424 pkt_dev->hh[10] = tmp; in mod_cur_headers()
2425 tmp = (pkt_dev->src_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2426 pkt_dev->hh[9] = tmp; in mod_cur_headers()
2427 tmp = (pkt_dev->src_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2428 pkt_dev->hh[8] = tmp; in mod_cur_headers()
2429 tmp = (pkt_dev->src_mac[1] + (tmp >> 8)); in mod_cur_headers()
2430 pkt_dev->hh[7] = tmp; in mod_cur_headers()
2434 if (pkt_dev->dst_mac_count > 1) { in mod_cur_headers()
2438 if (pkt_dev->flags & F_MACDST_RND) in mod_cur_headers()
2439 mc = get_random_u32_below(pkt_dev->dst_mac_count); in mod_cur_headers()
2442 mc = pkt_dev->cur_dst_mac_offset++; in mod_cur_headers()
2443 if (pkt_dev->cur_dst_mac_offset >= in mod_cur_headers()
2444 pkt_dev->dst_mac_count) { in mod_cur_headers()
2445 pkt_dev->cur_dst_mac_offset = 0; in mod_cur_headers()
2449 tmp = pkt_dev->dst_mac[5] + (mc & 0xFF); in mod_cur_headers()
2450 pkt_dev->hh[5] = tmp; in mod_cur_headers()
2451 tmp = (pkt_dev->dst_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2452 pkt_dev->hh[4] = tmp; in mod_cur_headers()
2453 tmp = (pkt_dev->dst_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2454 pkt_dev->hh[3] = tmp; in mod_cur_headers()
2455 tmp = (pkt_dev->dst_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2456 pkt_dev->hh[2] = tmp; in mod_cur_headers()
2457 tmp = (pkt_dev->dst_mac[1] + (tmp >> 8)); in mod_cur_headers()
2458 pkt_dev->hh[1] = tmp; in mod_cur_headers()
2461 if (pkt_dev->flags & F_MPLS_RND) { in mod_cur_headers()
2463 for (i = 0; i < pkt_dev->nr_labels; i++) in mod_cur_headers()
2464 if (pkt_dev->labels[i] & MPLS_STACK_BOTTOM) in mod_cur_headers()
2465 pkt_dev->labels[i] = MPLS_STACK_BOTTOM | in mod_cur_headers()
2470 if ((pkt_dev->flags & F_VID_RND) && (pkt_dev->vlan_id != 0xffff)) { in mod_cur_headers()
2471 pkt_dev->vlan_id = get_random_u32_below(4096); in mod_cur_headers()
2474 if ((pkt_dev->flags & F_SVID_RND) && (pkt_dev->svlan_id != 0xffff)) { in mod_cur_headers()
2475 pkt_dev->svlan_id = get_random_u32_below(4096); in mod_cur_headers()
2478 if (pkt_dev->udp_src_min < pkt_dev->udp_src_max) { in mod_cur_headers()
2479 if (pkt_dev->flags & F_UDPSRC_RND) in mod_cur_headers()
2480 pkt_dev->cur_udp_src = get_random_u32_inclusive(pkt_dev->udp_src_min, in mod_cur_headers()
2481 pkt_dev->udp_src_max - 1); in mod_cur_headers()
2484 pkt_dev->cur_udp_src++; in mod_cur_headers()
2485 if (pkt_dev->cur_udp_src >= pkt_dev->udp_src_max) in mod_cur_headers()
2486 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in mod_cur_headers()
2490 if (pkt_dev->udp_dst_min < pkt_dev->udp_dst_max) { in mod_cur_headers()
2491 if (pkt_dev->flags & F_UDPDST_RND) { in mod_cur_headers()
2492 pkt_dev->cur_udp_dst = get_random_u32_inclusive(pkt_dev->udp_dst_min, in mod_cur_headers()
2493 pkt_dev->udp_dst_max - 1); in mod_cur_headers()
2495 pkt_dev->cur_udp_dst++; in mod_cur_headers()
2496 if (pkt_dev->cur_udp_dst >= pkt_dev->udp_dst_max) in mod_cur_headers()
2497 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in mod_cur_headers()
2501 if (!(pkt_dev->flags & F_IPV6)) { in mod_cur_headers()
2503 imn = ntohl(pkt_dev->saddr_min); in mod_cur_headers()
2504 imx = ntohl(pkt_dev->saddr_max); in mod_cur_headers()
2507 if (pkt_dev->flags & F_IPSRC_RND) in mod_cur_headers()
2508 t = get_random_u32_inclusive(imn, imx - 1); in mod_cur_headers()
2510 t = ntohl(pkt_dev->cur_saddr); in mod_cur_headers()
2516 pkt_dev->cur_saddr = htonl(t); in mod_cur_headers()
2519 if (pkt_dev->cflows && f_seen(pkt_dev, flow)) { in mod_cur_headers()
2520 pkt_dev->cur_daddr = pkt_dev->flows[flow].cur_daddr; in mod_cur_headers()
2522 imn = ntohl(pkt_dev->daddr_min); in mod_cur_headers()
2523 imx = ntohl(pkt_dev->daddr_max); in mod_cur_headers()
2527 if (pkt_dev->flags & F_IPDST_RND) { in mod_cur_headers()
2530 t = get_random_u32_inclusive(imn, imx - 1); in mod_cur_headers()
2537 pkt_dev->cur_daddr = s; in mod_cur_headers()
2539 t = ntohl(pkt_dev->cur_daddr); in mod_cur_headers()
2544 pkt_dev->cur_daddr = htonl(t); in mod_cur_headers()
2547 if (pkt_dev->cflows) { in mod_cur_headers()
2548 pkt_dev->flows[flow].flags |= F_INIT; in mod_cur_headers()
2549 pkt_dev->flows[flow].cur_daddr = in mod_cur_headers()
2550 pkt_dev->cur_daddr; in mod_cur_headers()
2552 if (pkt_dev->flags & F_IPSEC) in mod_cur_headers()
2555 pkt_dev->nflows++; in mod_cur_headers()
2560 if (!ipv6_addr_any(&pkt_dev->min_in6_daddr)) { in mod_cur_headers()
2566 pkt_dev->cur_in6_daddr.s6_addr32[i] = in mod_cur_headers()
2568 pkt_dev->min_in6_daddr.s6_addr32[i]) & in mod_cur_headers()
2569 pkt_dev->max_in6_daddr.s6_addr32[i]); in mod_cur_headers()
2574 if (pkt_dev->min_pkt_size < pkt_dev->max_pkt_size) { in mod_cur_headers()
2576 if (pkt_dev->flags & F_TXSIZE_RND) { in mod_cur_headers()
2577 t = get_random_u32_inclusive(pkt_dev->min_pkt_size, in mod_cur_headers()
2578 pkt_dev->max_pkt_size - 1); in mod_cur_headers()
2580 t = pkt_dev->cur_pkt_size + 1; in mod_cur_headers()
2581 if (t > pkt_dev->max_pkt_size) in mod_cur_headers()
2582 t = pkt_dev->min_pkt_size; in mod_cur_headers()
2584 pkt_dev->cur_pkt_size = t; in mod_cur_headers()
2585 } else if (pkt_dev->n_imix_entries > 0) { in mod_cur_headers()
2588 __u8 entry_index = pkt_dev->imix_distribution[t]; in mod_cur_headers()
2590 entry = &pkt_dev->imix_entries[entry_index]; in mod_cur_headers()
2591 entry->count_so_far++; in mod_cur_headers()
2592 pkt_dev->cur_pkt_size = entry->size; in mod_cur_headers()
2597 pkt_dev->flows[flow].count++; in mod_cur_headers()
2608 for (i = 0; i < pkt_dev->n_imix_entries; i++) in fill_imix_distribution()
2609 total_weight += pkt_dev->imix_entries[i].weight; in fill_imix_distribution()
2612 for (i = 0; i < pkt_dev->n_imix_entries - 1; i++) { in fill_imix_distribution()
2613 cumulative_prob += div64_u64(pkt_dev->imix_entries[i].weight * in fill_imix_distribution()
2618 cumulative_probabilites[pkt_dev->n_imix_entries - 1] = 100; in fill_imix_distribution()
2623 pkt_dev->imix_distribution[i] = j; in fill_imix_distribution()
2635 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in pktgen_output_ipsec()
2637 struct net *net = dev_net(pkt_dev->odev); in pktgen_output_ipsec()
2643 if ((x->props.mode != XFRM_MODE_TRANSPORT) && (pkt_dev->spi == 0)) in pktgen_output_ipsec()
2649 if ((x->props.mode == XFRM_MODE_TUNNEL) && (pkt_dev->spi != 0)) in pktgen_output_ipsec()
2650 skb->_skb_refdst = (unsigned long)&pkt_dev->xdst.u.dst | SKB_DST_NOREF; in pktgen_output_ipsec()
2659 err = x->type->output(x, skb); in pktgen_output_ipsec()
2664 spin_lock_bh(&x->lock); in pktgen_output_ipsec()
2665 x->curlft.bytes += skb->len; in pktgen_output_ipsec()
2666 x->curlft.packets++; in pktgen_output_ipsec()
2667 spin_unlock_bh(&x->lock); in pktgen_output_ipsec()
2674 if (pkt_dev->cflows) { in free_SAs()
2677 for (i = 0; i < pkt_dev->cflows; i++) { in free_SAs()
2678 struct xfrm_state *x = pkt_dev->flows[i].x; in free_SAs()
2681 pkt_dev->flows[i].x = NULL; in free_SAs()
2690 if (pkt_dev->flags & F_IPSEC) { in process_ipsec()
2691 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in process_ipsec()
2698 nhead = x->props.header_len - skb_headroom(skb); in process_ipsec()
2717 memcpy(eth, pkt_dev->hh, 2 * ETH_ALEN); in process_ipsec()
2718 eth->h_proto = protocol; in process_ipsec()
2722 iph->tot_len = htons(skb->len - ETH_HLEN); in process_ipsec()
2736 for (i = 0; i < pkt_dev->nr_labels; i++) in mpls_push()
2737 *mpls++ = pkt_dev->labels[i] & ~MPLS_STACK_BOTTOM; in mpls_push()
2739 mpls--; in mpls_push()
2756 datalen -= sizeof(*pgh); in pktgen_finalize_skb()
2758 if (pkt_dev->nfrags <= 0) { in pktgen_finalize_skb()
2761 int frags = pkt_dev->nfrags; in pktgen_finalize_skb()
2768 len = datalen - frags * PAGE_SIZE; in pktgen_finalize_skb()
2778 if (unlikely(!pkt_dev->page)) { in pktgen_finalize_skb()
2781 if (pkt_dev->node >= 0 && (pkt_dev->flags & F_NODE)) in pktgen_finalize_skb()
2782 node = pkt_dev->node; in pktgen_finalize_skb()
2783 pkt_dev->page = alloc_pages_node(node, GFP_KERNEL | __GFP_ZERO, 0); in pktgen_finalize_skb()
2784 if (!pkt_dev->page) in pktgen_finalize_skb()
2787 get_page(pkt_dev->page); in pktgen_finalize_skb()
2790 if (i == (frags - 1)) in pktgen_finalize_skb()
2791 skb_frag_fill_page_desc(&skb_shinfo(skb)->frags[i], in pktgen_finalize_skb()
2792 pkt_dev->page, 0, in pktgen_finalize_skb()
2796 skb_frag_fill_page_desc(&skb_shinfo(skb)->frags[i], in pktgen_finalize_skb()
2797 pkt_dev->page, 0, frag_len); in pktgen_finalize_skb()
2799 datalen -= skb_frag_size(&skb_shinfo(skb)->frags[i]); in pktgen_finalize_skb()
2800 skb->len += skb_frag_size(&skb_shinfo(skb)->frags[i]); in pktgen_finalize_skb()
2801 skb->data_len += skb_frag_size(&skb_shinfo(skb)->frags[i]); in pktgen_finalize_skb()
2803 skb_shinfo(skb)->nr_frags = i; in pktgen_finalize_skb()
2810 pgh->pgh_magic = htonl(PKTGEN_MAGIC); in pktgen_finalize_skb()
2811 pgh->seq_num = htonl(pkt_dev->seq_num); in pktgen_finalize_skb()
2813 if (pkt_dev->flags & F_NO_TIMESTAMP) { in pktgen_finalize_skb()
2814 pgh->tv_sec = 0; in pktgen_finalize_skb()
2815 pgh->tv_usec = 0; in pktgen_finalize_skb()
2818 * pgh->tv_sec wraps in y2106 when interpreted as unsigned in pktgen_finalize_skb()
2821 * it, we could introduce a variant that puts 64-bit nanoseconds in pktgen_finalize_skb()
2826 pgh->tv_sec = htonl(timestamp.tv_sec); in pktgen_finalize_skb()
2827 pgh->tv_usec = htonl(timestamp.tv_nsec / NSEC_PER_USEC); in pktgen_finalize_skb()
2838 size = pkt_dev->cur_pkt_size + 64 + extralen + pkt_dev->pkt_overhead; in pktgen_alloc_skb()
2839 if (pkt_dev->flags & F_NODE) { in pktgen_alloc_skb()
2840 int node = pkt_dev->node >= 0 ? pkt_dev->node : numa_node_id(); in pktgen_alloc_skb()
2845 skb->dev = dev; in pktgen_alloc_skb()
2851 /* the caller pre-fetches from skb->data and reserves for the mac hdr */ in pktgen_alloc_skb()
2853 skb_reserve(skb, extralen - 16); in pktgen_alloc_skb()
2874 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2877 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv4()
2884 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv4()
2888 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv4()
2892 prefetchw(skb->data); in fill_packet_ipv4()
2897 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv4()
2898 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2901 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv4()
2902 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv4()
2904 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv4()
2905 pkt_dev->svlan_cfi, in fill_packet_ipv4()
2906 pkt_dev->svlan_p); in fill_packet_ipv4()
2912 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv4()
2913 pkt_dev->vlan_cfi, in fill_packet_ipv4()
2914 pkt_dev->vlan_p); in fill_packet_ipv4()
2920 skb_set_network_header(skb, skb->len); in fill_packet_ipv4()
2923 skb_set_transport_header(skb, skb->len); in fill_packet_ipv4()
2926 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv4()
2928 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv4()
2932 datalen = pkt_dev->cur_pkt_size - 14 - 20 - 8 - in fill_packet_ipv4()
2933 pkt_dev->pkt_overhead; in fill_packet_ipv4()
2937 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv4()
2938 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv4()
2939 udph->len = htons(datalen + 8); /* DATA + udphdr */ in fill_packet_ipv4()
2940 udph->check = 0; in fill_packet_ipv4()
2942 iph->ihl = 5; in fill_packet_ipv4()
2943 iph->version = 4; in fill_packet_ipv4()
2944 iph->ttl = 32; in fill_packet_ipv4()
2945 iph->tos = pkt_dev->tos; in fill_packet_ipv4()
2946 iph->protocol = IPPROTO_UDP; /* UDP */ in fill_packet_ipv4()
2947 iph->saddr = pkt_dev->cur_saddr; in fill_packet_ipv4()
2948 iph->daddr = pkt_dev->cur_daddr; in fill_packet_ipv4()
2949 iph->id = htons(pkt_dev->ip_id); in fill_packet_ipv4()
2950 pkt_dev->ip_id++; in fill_packet_ipv4()
2951 iph->frag_off = 0; in fill_packet_ipv4()
2953 iph->tot_len = htons(iplen); in fill_packet_ipv4()
2955 skb->protocol = protocol; in fill_packet_ipv4()
2956 skb->dev = odev; in fill_packet_ipv4()
2957 skb->pkt_type = PACKET_HOST; in fill_packet_ipv4()
2961 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv4()
2962 skb->ip_summed = CHECKSUM_NONE; in fill_packet_ipv4()
2963 } else if (odev->features & (NETIF_F_HW_CSUM | NETIF_F_IP_CSUM)) { in fill_packet_ipv4()
2964 skb->ip_summed = CHECKSUM_PARTIAL; in fill_packet_ipv4()
2965 skb->csum = 0; in fill_packet_ipv4()
2966 udp4_hwcsum(skb, iph->saddr, iph->daddr); in fill_packet_ipv4()
2970 /* add protocol-dependent pseudo-header */ in fill_packet_ipv4()
2971 udph->check = csum_tcpudp_magic(iph->saddr, iph->daddr, in fill_packet_ipv4()
2974 if (udph->check == 0) in fill_packet_ipv4()
2975 udph->check = CSUM_MANGLED_0; in fill_packet_ipv4()
3002 if (pkt_dev->nr_labels) in fill_packet_ipv6()
3005 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv6()
3012 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv6()
3016 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv6()
3020 prefetchw(skb->data); in fill_packet_ipv6()
3025 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv6()
3026 if (pkt_dev->nr_labels) in fill_packet_ipv6()
3029 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv6()
3030 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv6()
3032 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv6()
3033 pkt_dev->svlan_cfi, in fill_packet_ipv6()
3034 pkt_dev->svlan_p); in fill_packet_ipv6()
3040 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv6()
3041 pkt_dev->vlan_cfi, in fill_packet_ipv6()
3042 pkt_dev->vlan_p); in fill_packet_ipv6()
3048 skb_set_network_header(skb, skb->len); in fill_packet_ipv6()
3051 skb_set_transport_header(skb, skb->len); in fill_packet_ipv6()
3054 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv6()
3056 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv6()
3060 datalen = pkt_dev->cur_pkt_size - 14 - in fill_packet_ipv6()
3061 sizeof(struct ipv6hdr) - sizeof(struct udphdr) - in fill_packet_ipv6()
3062 pkt_dev->pkt_overhead; in fill_packet_ipv6()
3070 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv6()
3071 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv6()
3072 udph->len = htons(udplen); in fill_packet_ipv6()
3073 udph->check = 0; in fill_packet_ipv6()
3077 if (pkt_dev->traffic_class) { in fill_packet_ipv6()
3079 *(__be32 *)iph |= htonl(0x60000000 | (pkt_dev->traffic_class << 20)); in fill_packet_ipv6()
3082 iph->hop_limit = 32; in fill_packet_ipv6()
3084 iph->payload_len = htons(udplen); in fill_packet_ipv6()
3085 iph->nexthdr = IPPROTO_UDP; in fill_packet_ipv6()
3087 iph->daddr = pkt_dev->cur_in6_daddr; in fill_packet_ipv6()
3088 iph->saddr = pkt_dev->cur_in6_saddr; in fill_packet_ipv6()
3090 skb->protocol = protocol; in fill_packet_ipv6()
3091 skb->dev = odev; in fill_packet_ipv6()
3092 skb->pkt_type = PACKET_HOST; in fill_packet_ipv6()
3096 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv6()
3097 skb->ip_summed = CHECKSUM_NONE; in fill_packet_ipv6()
3098 } else if (odev->features & (NETIF_F_HW_CSUM | NETIF_F_IPV6_CSUM)) { in fill_packet_ipv6()
3099 skb->ip_summed = CHECKSUM_PARTIAL; in fill_packet_ipv6()
3100 skb->csum_start = skb_transport_header(skb) - skb->head; in fill_packet_ipv6()
3101 skb->csum_offset = offsetof(struct udphdr, check); in fill_packet_ipv6()
3102 udph->check = ~csum_ipv6_magic(&iph->saddr, &iph->daddr, udplen, IPPROTO_UDP, 0); in fill_packet_ipv6()
3106 /* add protocol-dependent pseudo-header */ in fill_packet_ipv6()
3107 udph->check = csum_ipv6_magic(&iph->saddr, &iph->daddr, udplen, IPPROTO_UDP, csum); in fill_packet_ipv6()
3109 if (udph->check == 0) in fill_packet_ipv6()
3110 udph->check = CSUM_MANGLED_0; in fill_packet_ipv6()
3119 if (pkt_dev->flags & F_IPV6) in fill_packet()
3127 pkt_dev->seq_num = 1; in pktgen_clear_counters()
3128 pkt_dev->idle_acc = 0; in pktgen_clear_counters()
3129 pkt_dev->sofar = 0; in pktgen_clear_counters()
3130 pkt_dev->tx_bytes = 0; in pktgen_clear_counters()
3131 pkt_dev->errors = 0; in pktgen_clear_counters()
3144 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_run()
3151 if (pkt_dev->odev) { in pktgen_run()
3153 pkt_dev->skb = NULL; in pktgen_run()
3154 pkt_dev->started_at = pkt_dev->next_tx = ktime_get(); in pktgen_run()
3158 strcpy(pkt_dev->result, "Starting"); in pktgen_run()
3159 pkt_dev->running = 1; /* Cranke yeself! */ in pktgen_run()
3162 strcpy(pkt_dev->result, "Error starting"); in pktgen_run()
3166 t->control &= ~(T_STOP); in pktgen_run()
3169 static void pktgen_handle_all_threads(struct pktgen_net *pn, u32 flags) in pktgen_handle_all_threads() argument
3175 list_for_each_entry(t, &pn->pktgen_threads, th_list) in pktgen_handle_all_threads()
3176 t->control |= (flags); in pktgen_handle_all_threads()
3181 static void pktgen_stop_all_threads(struct pktgen_net *pn) in pktgen_stop_all_threads() argument
3185 pktgen_handle_all_threads(pn, T_STOP); in pktgen_stop_all_threads()
3193 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in thread_is_running()
3194 if (pkt_dev->running) { in thread_is_running()
3222 static int pktgen_wait_all_threads_run(struct pktgen_net *pn) in pktgen_wait_all_threads_run() argument
3233 list_for_each_entry(t, &pn->pktgen_threads, th_list) { in pktgen_wait_all_threads_run()
3240 list_for_each_entry(t, &pn->pktgen_threads, th_list) in pktgen_wait_all_threads_run()
3241 t->control |= (T_STOP); in pktgen_wait_all_threads_run()
3248 static void pktgen_run_all_threads(struct pktgen_net *pn) in pktgen_run_all_threads() argument
3252 pktgen_handle_all_threads(pn, T_RUN); in pktgen_run_all_threads()
3254 /* Propagate thread->control */ in pktgen_run_all_threads()
3257 pktgen_wait_all_threads_run(pn); in pktgen_run_all_threads()
3260 static void pktgen_reset_all_threads(struct pktgen_net *pn) in pktgen_reset_all_threads() argument
3264 pktgen_handle_all_threads(pn, T_REMDEVALL); in pktgen_reset_all_threads()
3266 /* Propagate thread->control */ in pktgen_reset_all_threads()
3269 pktgen_wait_all_threads_run(pn); in pktgen_reset_all_threads()
3275 char *p = pkt_dev->result; in show_results()
3276 ktime_t elapsed = ktime_sub(pkt_dev->stopped_at, in show_results()
3277 pkt_dev->started_at); in show_results()
3278 ktime_t idle = ns_to_ktime(pkt_dev->idle_acc); in show_results()
3284 (unsigned long long)pkt_dev->sofar, in show_results()
3285 pkt_dev->cur_pkt_size, nr_frags); in show_results()
3287 pps = div64_u64(pkt_dev->sofar * NSEC_PER_SEC, in show_results()
3290 if (pkt_dev->n_imix_entries > 0) { in show_results()
3295 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in show_results()
3296 entry = &pkt_dev->imix_entries[i]; in show_results()
3297 bps += entry->size * entry->count_so_far; in show_results()
3301 bps = pps * 8 * pkt_dev->cur_pkt_size; in show_results()
3310 (unsigned long long)pkt_dev->errors); in show_results()
3313 /* Set stopped-at timer, remove from running list, do counters & statistics */
3316 int nr_frags = pkt_dev->skb ? skb_shinfo(pkt_dev->skb)->nr_frags : -1; in pktgen_stop_device()
3318 if (!pkt_dev->running) { in pktgen_stop_device()
3320 pkt_dev->odevname); in pktgen_stop_device()
3321 return -EINVAL; in pktgen_stop_device()
3324 pkt_dev->running = 0; in pktgen_stop_device()
3325 kfree_skb(pkt_dev->skb); in pktgen_stop_device()
3326 pkt_dev->skb = NULL; in pktgen_stop_device()
3327 pkt_dev->stopped_at = ktime_get(); in pktgen_stop_device()
3339 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in next_to_run()
3340 if (!pkt_dev->running) in next_to_run()
3344 else if (ktime_compare(pkt_dev->next_tx, best->next_tx) < 0) in next_to_run()
3360 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_stop()
3368 * one of our devices needs to be removed - find it
3378 list_for_each_safe(q, n, &t->if_list) { in pktgen_rem_one_if()
3381 if (!cur->removal_mark) in pktgen_rem_one_if()
3384 kfree_skb(cur->skb); in pktgen_rem_one_if()
3385 cur->skb = NULL; in pktgen_rem_one_if()
3402 list_for_each_safe(q, n, &t->if_list) { in pktgen_rem_all_ifs()
3405 kfree_skb(cur->skb); in pktgen_rem_all_ifs()
3406 cur->skb = NULL; in pktgen_rem_all_ifs()
3415 remove_proc_entry(t->tsk->comm, t->net->proc_dir); in pktgen_rem_thread()
3422 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_resched()
3429 while (refcount_read(&(pkt_dev->skb->users)) != 1) { in pktgen_wait_for_skb()
3438 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_wait_for_skb()
3443 unsigned int burst = READ_ONCE(pkt_dev->burst); in pktgen_xmit()
3444 struct net_device *odev = pkt_dev->odev; in pktgen_xmit()
3458 if (unlikely(pkt_dev->delay == ULLONG_MAX)) { in pktgen_xmit()
3459 pkt_dev->next_tx = ktime_add_ns(ktime_get(), ULONG_MAX); in pktgen_xmit()
3464 if (!pkt_dev->skb || (pkt_dev->last_ok && in pktgen_xmit()
3465 ++pkt_dev->clone_count >= pkt_dev->clone_skb)) { in pktgen_xmit()
3467 kfree_skb(pkt_dev->skb); in pktgen_xmit()
3469 pkt_dev->skb = fill_packet(odev, pkt_dev); in pktgen_xmit()
3470 if (pkt_dev->skb == NULL) { in pktgen_xmit()
3473 pkt_dev->clone_count--; /* back out increment, OOM */ in pktgen_xmit()
3476 pkt_dev->last_pkt_size = pkt_dev->skb->len; in pktgen_xmit()
3477 pkt_dev->clone_count = 0; /* reset counter */ in pktgen_xmit()
3480 if (pkt_dev->delay && pkt_dev->last_ok) in pktgen_xmit()
3481 spin(pkt_dev, pkt_dev->next_tx); in pktgen_xmit()
3483 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) { in pktgen_xmit()
3484 skb = pkt_dev->skb; in pktgen_xmit()
3485 skb->protocol = eth_type_trans(skb, skb->dev); in pktgen_xmit()
3486 refcount_add(burst, &skb->users); in pktgen_xmit()
3491 pkt_dev->errors++; in pktgen_xmit()
3492 pkt_dev->sofar++; in pktgen_xmit()
3493 pkt_dev->seq_num++; in pktgen_xmit()
3494 if (refcount_read(&skb->users) != burst) { in pktgen_xmit()
3498 WARN_ON(refcount_sub_and_test(burst - 1, &skb->users)); in pktgen_xmit()
3508 } while (--burst > 0); in pktgen_xmit()
3510 } else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) { in pktgen_xmit()
3512 refcount_inc(&pkt_dev->skb->users); in pktgen_xmit()
3514 ret = dev_queue_xmit(pkt_dev->skb); in pktgen_xmit()
3517 pkt_dev->sofar++; in pktgen_xmit()
3518 pkt_dev->seq_num++; in pktgen_xmit()
3519 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3534 pkt_dev->errors++; in pktgen_xmit()
3536 pkt_dev->odevname, ret); in pktgen_xmit()
3542 txq = skb_get_tx_queue(odev, pkt_dev->skb); in pktgen_xmit()
3549 pkt_dev->last_ok = 0; in pktgen_xmit()
3552 refcount_add(burst, &pkt_dev->skb->users); in pktgen_xmit()
3555 ret = netdev_start_xmit(pkt_dev->skb, odev, txq, --burst > 0); in pktgen_xmit()
3559 pkt_dev->last_ok = 1; in pktgen_xmit()
3560 pkt_dev->sofar++; in pktgen_xmit()
3561 pkt_dev->seq_num++; in pktgen_xmit()
3562 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3569 pkt_dev->errors++; in pktgen_xmit()
3573 pkt_dev->odevname, ret); in pktgen_xmit()
3574 pkt_dev->errors++; in pktgen_xmit()
3577 /* Retry it next time */ in pktgen_xmit()
3578 refcount_dec(&(pkt_dev->skb->users)); in pktgen_xmit()
3579 pkt_dev->last_ok = 0; in pktgen_xmit()
3582 WARN_ON(refcount_sub_and_test(burst, &pkt_dev->skb->users)); in pktgen_xmit()
3589 /* If pkt_dev->count is zero, then run forever */ in pktgen_xmit()
3590 if ((pkt_dev->count != 0) && (pkt_dev->sofar >= pkt_dev->count)) { in pktgen_xmit()
3606 int cpu = t->cpu; in pktgen_thread_worker()
3610 init_waitqueue_head(&t->queue); in pktgen_thread_worker()
3611 complete(&t->start_done); in pktgen_thread_worker()
3620 if (unlikely(!pkt_dev && t->control == 0)) { in pktgen_thread_worker()
3621 if (t->net->pktgen_exiting) in pktgen_thread_worker()
3623 wait_event_interruptible_timeout(t->queue, in pktgen_thread_worker()
3624 t->control != 0, in pktgen_thread_worker()
3639 if (t->control & T_STOP) { in pktgen_thread_worker()
3641 t->control &= ~(T_STOP); in pktgen_thread_worker()
3644 if (t->control & T_RUN) { in pktgen_thread_worker()
3646 t->control &= ~(T_RUN); in pktgen_thread_worker()
3649 if (t->control & T_REMDEVALL) { in pktgen_thread_worker()
3651 t->control &= ~(T_REMDEVALL); in pktgen_thread_worker()
3654 if (t->control & T_REMDEV) { in pktgen_thread_worker()
3656 t->control &= ~(T_REMDEV); in pktgen_thread_worker()
3662 pr_debug("%s stopping all device\n", t->tsk->comm); in pktgen_thread_worker()
3665 pr_debug("%s removing all device\n", t->tsk->comm); in pktgen_thread_worker()
3668 pr_debug("%s removing thread\n", t->tsk->comm); in pktgen_thread_worker()
3681 list_for_each_entry_rcu(p, &t->if_list, list) in pktgen_find_dev()
3682 if (strncmp(p->odevname, ifname, len) == 0) { in pktgen_find_dev()
3683 if (p->odevname[len]) { in pktgen_find_dev()
3684 if (exact || p->odevname[len] != '@') in pktgen_find_dev()
3713 if (pkt_dev->pg_thread) { in add_dev_to_thread()
3715 rv = -EBUSY; in add_dev_to_thread()
3719 pkt_dev->running = 0; in add_dev_to_thread()
3720 pkt_dev->pg_thread = t; in add_dev_to_thread()
3721 list_add_rcu(&pkt_dev->list, &t->if_list); in add_dev_to_thread()
3734 int node = cpu_to_node(t->cpu); in pktgen_add_device()
3738 pkt_dev = __pktgen_NN_threads(t->net, ifname, FIND); in pktgen_add_device()
3741 return -EBUSY; in pktgen_add_device()
3746 return -ENOMEM; in pktgen_add_device()
3748 strcpy(pkt_dev->odevname, ifname); in pktgen_add_device()
3749 pkt_dev->flows = vzalloc_node(array_size(MAX_CFLOWS, in pktgen_add_device()
3752 if (pkt_dev->flows == NULL) { in pktgen_add_device()
3754 return -ENOMEM; in pktgen_add_device()
3757 pkt_dev->removal_mark = 0; in pktgen_add_device()
3758 pkt_dev->nfrags = 0; in pktgen_add_device()
3759 pkt_dev->delay = pg_delay_d; in pktgen_add_device()
3760 pkt_dev->count = pg_count_d; in pktgen_add_device()
3761 pkt_dev->sofar = 0; in pktgen_add_device()
3762 pkt_dev->udp_src_min = 9; /* sink port */ in pktgen_add_device()
3763 pkt_dev->udp_src_max = 9; in pktgen_add_device()
3764 pkt_dev->udp_dst_min = 9; in pktgen_add_device()
3765 pkt_dev->udp_dst_max = 9; in pktgen_add_device()
3766 pkt_dev->vlan_p = 0; in pktgen_add_device()
3767 pkt_dev->vlan_cfi = 0; in pktgen_add_device()
3768 pkt_dev->vlan_id = 0xffff; in pktgen_add_device()
3769 pkt_dev->svlan_p = 0; in pktgen_add_device()
3770 pkt_dev->svlan_cfi = 0; in pktgen_add_device()
3771 pkt_dev->svlan_id = 0xffff; in pktgen_add_device()
3772 pkt_dev->burst = 1; in pktgen_add_device()
3773 pkt_dev->node = NUMA_NO_NODE; in pktgen_add_device()
3775 err = pktgen_setup_dev(t->net, pkt_dev, ifname); in pktgen_add_device()
3778 if (pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING) in pktgen_add_device()
3779 pkt_dev->clone_skb = pg_clone_skb_d; in pktgen_add_device()
3781 pkt_dev->entry = proc_create_data(ifname, 0600, t->net->proc_dir, in pktgen_add_device()
3783 if (!pkt_dev->entry) { in pktgen_add_device()
3786 err = -EINVAL; in pktgen_add_device()
3790 pkt_dev->ipsmode = XFRM_MODE_TRANSPORT; in pktgen_add_device()
3791 pkt_dev->ipsproto = IPPROTO_ESP; in pktgen_add_device()
3798 pkt_dev->dstops.family = AF_INET; in pktgen_add_device()
3799 pkt_dev->xdst.u.dst.dev = pkt_dev->odev; in pktgen_add_device()
3800 dst_init_metrics(&pkt_dev->xdst.u.dst, pktgen_dst_metrics, false); in pktgen_add_device()
3801 pkt_dev->xdst.child = &pkt_dev->xdst.u.dst; in pktgen_add_device()
3802 pkt_dev->xdst.u.dst.ops = &pkt_dev->dstops; in pktgen_add_device()
3807 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_add_device()
3812 vfree(pkt_dev->flows); in pktgen_add_device()
3817 static int __net_init pktgen_create_thread(int cpu, struct pktgen_net *pn) in pktgen_create_thread() argument
3827 return -ENOMEM; in pktgen_create_thread()
3830 mutex_init(&t->if_lock); in pktgen_create_thread()
3831 t->cpu = cpu; in pktgen_create_thread()
3833 INIT_LIST_HEAD(&t->if_list); in pktgen_create_thread()
3835 list_add_tail(&t->th_list, &pn->pktgen_threads); in pktgen_create_thread()
3836 init_completion(&t->start_done); in pktgen_create_thread()
3843 pr_err("kthread_create_on_node() failed for cpu %d\n", t->cpu); in pktgen_create_thread()
3844 list_del(&t->th_list); in pktgen_create_thread()
3849 t->tsk = p; in pktgen_create_thread()
3851 pe = proc_create_data(t->tsk->comm, 0600, pn->proc_dir, in pktgen_create_thread()
3855 PG_PROC_DIR, t->tsk->comm); in pktgen_create_thread()
3857 list_del(&t->th_list); in pktgen_create_thread()
3859 return -EINVAL; in pktgen_create_thread()
3862 t->net = pn; in pktgen_create_thread()
3865 wait_for_completion(&t->start_done); in pktgen_create_thread()
3880 list_for_each_safe(q, n, &t->if_list) { in _rem_dev_from_if_list()
3883 list_del_rcu(&p->list); in _rem_dev_from_if_list()
3893 if (pkt_dev->running) { in pktgen_remove_device()
3898 /* Dis-associate from the interface */ in pktgen_remove_device()
3900 if (pkt_dev->odev) { in pktgen_remove_device()
3901 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_remove_device()
3902 pkt_dev->odev = NULL; in pktgen_remove_device()
3908 proc_remove(pkt_dev->entry); in pktgen_remove_device()
3916 vfree(pkt_dev->flows); in pktgen_remove_device()
3917 if (pkt_dev->page) in pktgen_remove_device()
3918 put_page(pkt_dev->page); in pktgen_remove_device()
3925 struct pktgen_net *pn = net_generic(net, pg_net_id); in pg_net_init() local
3929 pn->net = net; in pg_net_init()
3930 INIT_LIST_HEAD(&pn->pktgen_threads); in pg_net_init()
3931 pn->pktgen_exiting = false; in pg_net_init()
3932 pn->proc_dir = proc_mkdir(PG_PROC_DIR, pn->net->proc_net); in pg_net_init()
3933 if (!pn->proc_dir) { in pg_net_init()
3935 return -ENODEV; in pg_net_init()
3937 pe = proc_create(PGCTRL, 0600, pn->proc_dir, &pktgen_proc_ops); in pg_net_init()
3940 ret = -EINVAL; in pg_net_init()
3947 err = pktgen_create_thread(cpu, pn); in pg_net_init()
3953 if (list_empty(&pn->pktgen_threads)) { in pg_net_init()
3955 ret = -ENODEV; in pg_net_init()
3962 remove_proc_entry(PGCTRL, pn->proc_dir); in pg_net_init()
3964 remove_proc_entry(PG_PROC_DIR, pn->net->proc_net); in pg_net_init()
3970 struct pktgen_net *pn = net_generic(net, pg_net_id); in pg_net_exit() local
3976 pn->pktgen_exiting = true; in pg_net_exit()
3979 list_splice_init(&pn->pktgen_threads, &list); in pg_net_exit()
3984 list_del(&t->th_list); in pg_net_exit()
3985 kthread_stop_put(t->tsk); in pg_net_exit()
3989 remove_proc_entry(PGCTRL, pn->proc_dir); in pg_net_exit()
3990 remove_proc_entry(PG_PROC_DIR, pn->net->proc_net); in pg_net_exit()