1*c011641eSTuomas Tynkkynen // SPDX-License-Identifier: GPL-2.0+
2*c011641eSTuomas Tynkkynen /*
3*c011641eSTuomas Tynkkynen * Copyright (C) 2018, Tuomas Tynkkynen <tuomas.tynkkynen@iki.fi>
4*c011641eSTuomas Tynkkynen * Copyright (C) 2018, Bin Meng <bmeng.cn@gmail.com>
5*c011641eSTuomas Tynkkynen *
6*c011641eSTuomas Tynkkynen * virtio ring implementation
7*c011641eSTuomas Tynkkynen */
8*c011641eSTuomas Tynkkynen
9*c011641eSTuomas Tynkkynen #include <common.h>
10*c011641eSTuomas Tynkkynen #include <dm.h>
11*c011641eSTuomas Tynkkynen #include <malloc.h>
12*c011641eSTuomas Tynkkynen #include <virtio_types.h>
13*c011641eSTuomas Tynkkynen #include <virtio.h>
14*c011641eSTuomas Tynkkynen #include <virtio_ring.h>
15*c011641eSTuomas Tynkkynen
virtqueue_add(struct virtqueue * vq,struct virtio_sg * sgs[],unsigned int out_sgs,unsigned int in_sgs)16*c011641eSTuomas Tynkkynen int virtqueue_add(struct virtqueue *vq, struct virtio_sg *sgs[],
17*c011641eSTuomas Tynkkynen unsigned int out_sgs, unsigned int in_sgs)
18*c011641eSTuomas Tynkkynen {
19*c011641eSTuomas Tynkkynen struct vring_desc *desc;
20*c011641eSTuomas Tynkkynen unsigned int total_sg = out_sgs + in_sgs;
21*c011641eSTuomas Tynkkynen unsigned int i, n, avail, descs_used, uninitialized_var(prev);
22*c011641eSTuomas Tynkkynen int head;
23*c011641eSTuomas Tynkkynen
24*c011641eSTuomas Tynkkynen WARN_ON(total_sg == 0);
25*c011641eSTuomas Tynkkynen
26*c011641eSTuomas Tynkkynen head = vq->free_head;
27*c011641eSTuomas Tynkkynen
28*c011641eSTuomas Tynkkynen desc = vq->vring.desc;
29*c011641eSTuomas Tynkkynen i = head;
30*c011641eSTuomas Tynkkynen descs_used = total_sg;
31*c011641eSTuomas Tynkkynen
32*c011641eSTuomas Tynkkynen if (vq->num_free < descs_used) {
33*c011641eSTuomas Tynkkynen debug("Can't add buf len %i - avail = %i\n",
34*c011641eSTuomas Tynkkynen descs_used, vq->num_free);
35*c011641eSTuomas Tynkkynen /*
36*c011641eSTuomas Tynkkynen * FIXME: for historical reasons, we force a notify here if
37*c011641eSTuomas Tynkkynen * there are outgoing parts to the buffer. Presumably the
38*c011641eSTuomas Tynkkynen * host should service the ring ASAP.
39*c011641eSTuomas Tynkkynen */
40*c011641eSTuomas Tynkkynen if (out_sgs)
41*c011641eSTuomas Tynkkynen virtio_notify(vq->vdev, vq);
42*c011641eSTuomas Tynkkynen return -ENOSPC;
43*c011641eSTuomas Tynkkynen }
44*c011641eSTuomas Tynkkynen
45*c011641eSTuomas Tynkkynen for (n = 0; n < out_sgs; n++) {
46*c011641eSTuomas Tynkkynen struct virtio_sg *sg = sgs[n];
47*c011641eSTuomas Tynkkynen
48*c011641eSTuomas Tynkkynen desc[i].flags = cpu_to_virtio16(vq->vdev, VRING_DESC_F_NEXT);
49*c011641eSTuomas Tynkkynen desc[i].addr = cpu_to_virtio64(vq->vdev, (u64)(size_t)sg->addr);
50*c011641eSTuomas Tynkkynen desc[i].len = cpu_to_virtio32(vq->vdev, sg->length);
51*c011641eSTuomas Tynkkynen
52*c011641eSTuomas Tynkkynen prev = i;
53*c011641eSTuomas Tynkkynen i = virtio16_to_cpu(vq->vdev, desc[i].next);
54*c011641eSTuomas Tynkkynen }
55*c011641eSTuomas Tynkkynen for (; n < (out_sgs + in_sgs); n++) {
56*c011641eSTuomas Tynkkynen struct virtio_sg *sg = sgs[n];
57*c011641eSTuomas Tynkkynen
58*c011641eSTuomas Tynkkynen desc[i].flags = cpu_to_virtio16(vq->vdev, VRING_DESC_F_NEXT |
59*c011641eSTuomas Tynkkynen VRING_DESC_F_WRITE);
60*c011641eSTuomas Tynkkynen desc[i].addr = cpu_to_virtio64(vq->vdev,
61*c011641eSTuomas Tynkkynen (u64)(uintptr_t)sg->addr);
62*c011641eSTuomas Tynkkynen desc[i].len = cpu_to_virtio32(vq->vdev, sg->length);
63*c011641eSTuomas Tynkkynen
64*c011641eSTuomas Tynkkynen prev = i;
65*c011641eSTuomas Tynkkynen i = virtio16_to_cpu(vq->vdev, desc[i].next);
66*c011641eSTuomas Tynkkynen }
67*c011641eSTuomas Tynkkynen /* Last one doesn't continue */
68*c011641eSTuomas Tynkkynen desc[prev].flags &= cpu_to_virtio16(vq->vdev, ~VRING_DESC_F_NEXT);
69*c011641eSTuomas Tynkkynen
70*c011641eSTuomas Tynkkynen /* We're using some buffers from the free list. */
71*c011641eSTuomas Tynkkynen vq->num_free -= descs_used;
72*c011641eSTuomas Tynkkynen
73*c011641eSTuomas Tynkkynen /* Update free pointer */
74*c011641eSTuomas Tynkkynen vq->free_head = i;
75*c011641eSTuomas Tynkkynen
76*c011641eSTuomas Tynkkynen /*
77*c011641eSTuomas Tynkkynen * Put entry in available array (but don't update avail->idx
78*c011641eSTuomas Tynkkynen * until they do sync).
79*c011641eSTuomas Tynkkynen */
80*c011641eSTuomas Tynkkynen avail = vq->avail_idx_shadow & (vq->vring.num - 1);
81*c011641eSTuomas Tynkkynen vq->vring.avail->ring[avail] = cpu_to_virtio16(vq->vdev, head);
82*c011641eSTuomas Tynkkynen
83*c011641eSTuomas Tynkkynen /*
84*c011641eSTuomas Tynkkynen * Descriptors and available array need to be set before we expose the
85*c011641eSTuomas Tynkkynen * new available array entries.
86*c011641eSTuomas Tynkkynen */
87*c011641eSTuomas Tynkkynen virtio_wmb();
88*c011641eSTuomas Tynkkynen vq->avail_idx_shadow++;
89*c011641eSTuomas Tynkkynen vq->vring.avail->idx = cpu_to_virtio16(vq->vdev, vq->avail_idx_shadow);
90*c011641eSTuomas Tynkkynen vq->num_added++;
91*c011641eSTuomas Tynkkynen
92*c011641eSTuomas Tynkkynen /*
93*c011641eSTuomas Tynkkynen * This is very unlikely, but theoretically possible.
94*c011641eSTuomas Tynkkynen * Kick just in case.
95*c011641eSTuomas Tynkkynen */
96*c011641eSTuomas Tynkkynen if (unlikely(vq->num_added == (1 << 16) - 1))
97*c011641eSTuomas Tynkkynen virtqueue_kick(vq);
98*c011641eSTuomas Tynkkynen
99*c011641eSTuomas Tynkkynen return 0;
100*c011641eSTuomas Tynkkynen }
101*c011641eSTuomas Tynkkynen
virtqueue_kick_prepare(struct virtqueue * vq)102*c011641eSTuomas Tynkkynen static bool virtqueue_kick_prepare(struct virtqueue *vq)
103*c011641eSTuomas Tynkkynen {
104*c011641eSTuomas Tynkkynen u16 new, old;
105*c011641eSTuomas Tynkkynen bool needs_kick;
106*c011641eSTuomas Tynkkynen
107*c011641eSTuomas Tynkkynen /*
108*c011641eSTuomas Tynkkynen * We need to expose available array entries before checking
109*c011641eSTuomas Tynkkynen * avail event.
110*c011641eSTuomas Tynkkynen */
111*c011641eSTuomas Tynkkynen virtio_mb();
112*c011641eSTuomas Tynkkynen
113*c011641eSTuomas Tynkkynen old = vq->avail_idx_shadow - vq->num_added;
114*c011641eSTuomas Tynkkynen new = vq->avail_idx_shadow;
115*c011641eSTuomas Tynkkynen vq->num_added = 0;
116*c011641eSTuomas Tynkkynen
117*c011641eSTuomas Tynkkynen if (vq->event) {
118*c011641eSTuomas Tynkkynen needs_kick = vring_need_event(virtio16_to_cpu(vq->vdev,
119*c011641eSTuomas Tynkkynen vring_avail_event(&vq->vring)), new, old);
120*c011641eSTuomas Tynkkynen } else {
121*c011641eSTuomas Tynkkynen needs_kick = !(vq->vring.used->flags & cpu_to_virtio16(vq->vdev,
122*c011641eSTuomas Tynkkynen VRING_USED_F_NO_NOTIFY));
123*c011641eSTuomas Tynkkynen }
124*c011641eSTuomas Tynkkynen
125*c011641eSTuomas Tynkkynen return needs_kick;
126*c011641eSTuomas Tynkkynen }
127*c011641eSTuomas Tynkkynen
virtqueue_kick(struct virtqueue * vq)128*c011641eSTuomas Tynkkynen void virtqueue_kick(struct virtqueue *vq)
129*c011641eSTuomas Tynkkynen {
130*c011641eSTuomas Tynkkynen if (virtqueue_kick_prepare(vq))
131*c011641eSTuomas Tynkkynen virtio_notify(vq->vdev, vq);
132*c011641eSTuomas Tynkkynen }
133*c011641eSTuomas Tynkkynen
detach_buf(struct virtqueue * vq,unsigned int head)134*c011641eSTuomas Tynkkynen static void detach_buf(struct virtqueue *vq, unsigned int head)
135*c011641eSTuomas Tynkkynen {
136*c011641eSTuomas Tynkkynen unsigned int i;
137*c011641eSTuomas Tynkkynen __virtio16 nextflag = cpu_to_virtio16(vq->vdev, VRING_DESC_F_NEXT);
138*c011641eSTuomas Tynkkynen
139*c011641eSTuomas Tynkkynen /* Put back on free list: unmap first-level descriptors and find end */
140*c011641eSTuomas Tynkkynen i = head;
141*c011641eSTuomas Tynkkynen
142*c011641eSTuomas Tynkkynen while (vq->vring.desc[i].flags & nextflag) {
143*c011641eSTuomas Tynkkynen i = virtio16_to_cpu(vq->vdev, vq->vring.desc[i].next);
144*c011641eSTuomas Tynkkynen vq->num_free++;
145*c011641eSTuomas Tynkkynen }
146*c011641eSTuomas Tynkkynen
147*c011641eSTuomas Tynkkynen vq->vring.desc[i].next = cpu_to_virtio16(vq->vdev, vq->free_head);
148*c011641eSTuomas Tynkkynen vq->free_head = head;
149*c011641eSTuomas Tynkkynen
150*c011641eSTuomas Tynkkynen /* Plus final descriptor */
151*c011641eSTuomas Tynkkynen vq->num_free++;
152*c011641eSTuomas Tynkkynen }
153*c011641eSTuomas Tynkkynen
more_used(const struct virtqueue * vq)154*c011641eSTuomas Tynkkynen static inline bool more_used(const struct virtqueue *vq)
155*c011641eSTuomas Tynkkynen {
156*c011641eSTuomas Tynkkynen return vq->last_used_idx != virtio16_to_cpu(vq->vdev,
157*c011641eSTuomas Tynkkynen vq->vring.used->idx);
158*c011641eSTuomas Tynkkynen }
159*c011641eSTuomas Tynkkynen
virtqueue_get_buf(struct virtqueue * vq,unsigned int * len)160*c011641eSTuomas Tynkkynen void *virtqueue_get_buf(struct virtqueue *vq, unsigned int *len)
161*c011641eSTuomas Tynkkynen {
162*c011641eSTuomas Tynkkynen unsigned int i;
163*c011641eSTuomas Tynkkynen u16 last_used;
164*c011641eSTuomas Tynkkynen
165*c011641eSTuomas Tynkkynen if (!more_used(vq)) {
166*c011641eSTuomas Tynkkynen debug("(%s.%d): No more buffers in queue\n",
167*c011641eSTuomas Tynkkynen vq->vdev->name, vq->index);
168*c011641eSTuomas Tynkkynen return NULL;
169*c011641eSTuomas Tynkkynen }
170*c011641eSTuomas Tynkkynen
171*c011641eSTuomas Tynkkynen /* Only get used array entries after they have been exposed by host */
172*c011641eSTuomas Tynkkynen virtio_rmb();
173*c011641eSTuomas Tynkkynen
174*c011641eSTuomas Tynkkynen last_used = (vq->last_used_idx & (vq->vring.num - 1));
175*c011641eSTuomas Tynkkynen i = virtio32_to_cpu(vq->vdev, vq->vring.used->ring[last_used].id);
176*c011641eSTuomas Tynkkynen if (len) {
177*c011641eSTuomas Tynkkynen *len = virtio32_to_cpu(vq->vdev,
178*c011641eSTuomas Tynkkynen vq->vring.used->ring[last_used].len);
179*c011641eSTuomas Tynkkynen debug("(%s.%d): last used idx %u with len %u\n",
180*c011641eSTuomas Tynkkynen vq->vdev->name, vq->index, i, *len);
181*c011641eSTuomas Tynkkynen }
182*c011641eSTuomas Tynkkynen
183*c011641eSTuomas Tynkkynen if (unlikely(i >= vq->vring.num)) {
184*c011641eSTuomas Tynkkynen printf("(%s.%d): id %u out of range\n",
185*c011641eSTuomas Tynkkynen vq->vdev->name, vq->index, i);
186*c011641eSTuomas Tynkkynen return NULL;
187*c011641eSTuomas Tynkkynen }
188*c011641eSTuomas Tynkkynen
189*c011641eSTuomas Tynkkynen detach_buf(vq, i);
190*c011641eSTuomas Tynkkynen vq->last_used_idx++;
191*c011641eSTuomas Tynkkynen /*
192*c011641eSTuomas Tynkkynen * If we expect an interrupt for the next entry, tell host
193*c011641eSTuomas Tynkkynen * by writing event index and flush out the write before
194*c011641eSTuomas Tynkkynen * the read in the next get_buf call.
195*c011641eSTuomas Tynkkynen */
196*c011641eSTuomas Tynkkynen if (!(vq->avail_flags_shadow & VRING_AVAIL_F_NO_INTERRUPT))
197*c011641eSTuomas Tynkkynen virtio_store_mb(&vring_used_event(&vq->vring),
198*c011641eSTuomas Tynkkynen cpu_to_virtio16(vq->vdev, vq->last_used_idx));
199*c011641eSTuomas Tynkkynen
200*c011641eSTuomas Tynkkynen return (void *)(uintptr_t)virtio64_to_cpu(vq->vdev,
201*c011641eSTuomas Tynkkynen vq->vring.desc[i].addr);
202*c011641eSTuomas Tynkkynen }
203*c011641eSTuomas Tynkkynen
__vring_new_virtqueue(unsigned int index,struct vring vring,struct udevice * udev)204*c011641eSTuomas Tynkkynen static struct virtqueue *__vring_new_virtqueue(unsigned int index,
205*c011641eSTuomas Tynkkynen struct vring vring,
206*c011641eSTuomas Tynkkynen struct udevice *udev)
207*c011641eSTuomas Tynkkynen {
208*c011641eSTuomas Tynkkynen unsigned int i;
209*c011641eSTuomas Tynkkynen struct virtqueue *vq;
210*c011641eSTuomas Tynkkynen struct virtio_dev_priv *uc_priv = dev_get_uclass_priv(udev);
211*c011641eSTuomas Tynkkynen struct udevice *vdev = uc_priv->vdev;
212*c011641eSTuomas Tynkkynen
213*c011641eSTuomas Tynkkynen vq = malloc(sizeof(*vq));
214*c011641eSTuomas Tynkkynen if (!vq)
215*c011641eSTuomas Tynkkynen return NULL;
216*c011641eSTuomas Tynkkynen
217*c011641eSTuomas Tynkkynen vq->vdev = vdev;
218*c011641eSTuomas Tynkkynen vq->index = index;
219*c011641eSTuomas Tynkkynen vq->num_free = vring.num;
220*c011641eSTuomas Tynkkynen vq->vring = vring;
221*c011641eSTuomas Tynkkynen vq->last_used_idx = 0;
222*c011641eSTuomas Tynkkynen vq->avail_flags_shadow = 0;
223*c011641eSTuomas Tynkkynen vq->avail_idx_shadow = 0;
224*c011641eSTuomas Tynkkynen vq->num_added = 0;
225*c011641eSTuomas Tynkkynen list_add_tail(&vq->list, &uc_priv->vqs);
226*c011641eSTuomas Tynkkynen
227*c011641eSTuomas Tynkkynen vq->event = virtio_has_feature(vdev, VIRTIO_RING_F_EVENT_IDX);
228*c011641eSTuomas Tynkkynen
229*c011641eSTuomas Tynkkynen /* Tell other side not to bother us */
230*c011641eSTuomas Tynkkynen vq->avail_flags_shadow |= VRING_AVAIL_F_NO_INTERRUPT;
231*c011641eSTuomas Tynkkynen if (!vq->event)
232*c011641eSTuomas Tynkkynen vq->vring.avail->flags = cpu_to_virtio16(vdev,
233*c011641eSTuomas Tynkkynen vq->avail_flags_shadow);
234*c011641eSTuomas Tynkkynen
235*c011641eSTuomas Tynkkynen /* Put everything in free lists */
236*c011641eSTuomas Tynkkynen vq->free_head = 0;
237*c011641eSTuomas Tynkkynen for (i = 0; i < vring.num - 1; i++)
238*c011641eSTuomas Tynkkynen vq->vring.desc[i].next = cpu_to_virtio16(vdev, i + 1);
239*c011641eSTuomas Tynkkynen
240*c011641eSTuomas Tynkkynen return vq;
241*c011641eSTuomas Tynkkynen }
242*c011641eSTuomas Tynkkynen
vring_create_virtqueue(unsigned int index,unsigned int num,unsigned int vring_align,struct udevice * udev)243*c011641eSTuomas Tynkkynen struct virtqueue *vring_create_virtqueue(unsigned int index, unsigned int num,
244*c011641eSTuomas Tynkkynen unsigned int vring_align,
245*c011641eSTuomas Tynkkynen struct udevice *udev)
246*c011641eSTuomas Tynkkynen {
247*c011641eSTuomas Tynkkynen struct virtqueue *vq;
248*c011641eSTuomas Tynkkynen void *queue = NULL;
249*c011641eSTuomas Tynkkynen struct vring vring;
250*c011641eSTuomas Tynkkynen
251*c011641eSTuomas Tynkkynen /* We assume num is a power of 2 */
252*c011641eSTuomas Tynkkynen if (num & (num - 1)) {
253*c011641eSTuomas Tynkkynen printf("Bad virtqueue length %u\n", num);
254*c011641eSTuomas Tynkkynen return NULL;
255*c011641eSTuomas Tynkkynen }
256*c011641eSTuomas Tynkkynen
257*c011641eSTuomas Tynkkynen /* TODO: allocate each queue chunk individually */
258*c011641eSTuomas Tynkkynen for (; num && vring_size(num, vring_align) > PAGE_SIZE; num /= 2) {
259*c011641eSTuomas Tynkkynen queue = memalign(PAGE_SIZE, vring_size(num, vring_align));
260*c011641eSTuomas Tynkkynen if (queue)
261*c011641eSTuomas Tynkkynen break;
262*c011641eSTuomas Tynkkynen }
263*c011641eSTuomas Tynkkynen
264*c011641eSTuomas Tynkkynen if (!num)
265*c011641eSTuomas Tynkkynen return NULL;
266*c011641eSTuomas Tynkkynen
267*c011641eSTuomas Tynkkynen if (!queue) {
268*c011641eSTuomas Tynkkynen /* Try to get a single page. You are my only hope! */
269*c011641eSTuomas Tynkkynen queue = memalign(PAGE_SIZE, vring_size(num, vring_align));
270*c011641eSTuomas Tynkkynen }
271*c011641eSTuomas Tynkkynen if (!queue)
272*c011641eSTuomas Tynkkynen return NULL;
273*c011641eSTuomas Tynkkynen
274*c011641eSTuomas Tynkkynen memset(queue, 0, vring_size(num, vring_align));
275*c011641eSTuomas Tynkkynen vring_init(&vring, num, queue, vring_align);
276*c011641eSTuomas Tynkkynen
277*c011641eSTuomas Tynkkynen vq = __vring_new_virtqueue(index, vring, udev);
278*c011641eSTuomas Tynkkynen if (!vq) {
279*c011641eSTuomas Tynkkynen free(queue);
280*c011641eSTuomas Tynkkynen return NULL;
281*c011641eSTuomas Tynkkynen }
282*c011641eSTuomas Tynkkynen debug("(%s): created vring @ %p for vq @ %p with num %u\n", udev->name,
283*c011641eSTuomas Tynkkynen queue, vq, num);
284*c011641eSTuomas Tynkkynen
285*c011641eSTuomas Tynkkynen return vq;
286*c011641eSTuomas Tynkkynen }
287*c011641eSTuomas Tynkkynen
vring_del_virtqueue(struct virtqueue * vq)288*c011641eSTuomas Tynkkynen void vring_del_virtqueue(struct virtqueue *vq)
289*c011641eSTuomas Tynkkynen {
290*c011641eSTuomas Tynkkynen free(vq->vring.desc);
291*c011641eSTuomas Tynkkynen list_del(&vq->list);
292*c011641eSTuomas Tynkkynen free(vq);
293*c011641eSTuomas Tynkkynen }
294*c011641eSTuomas Tynkkynen
virtqueue_get_vring_size(struct virtqueue * vq)295*c011641eSTuomas Tynkkynen unsigned int virtqueue_get_vring_size(struct virtqueue *vq)
296*c011641eSTuomas Tynkkynen {
297*c011641eSTuomas Tynkkynen return vq->vring.num;
298*c011641eSTuomas Tynkkynen }
299*c011641eSTuomas Tynkkynen
virtqueue_get_desc_addr(struct virtqueue * vq)300*c011641eSTuomas Tynkkynen ulong virtqueue_get_desc_addr(struct virtqueue *vq)
301*c011641eSTuomas Tynkkynen {
302*c011641eSTuomas Tynkkynen return (ulong)vq->vring.desc;
303*c011641eSTuomas Tynkkynen }
304*c011641eSTuomas Tynkkynen
virtqueue_get_avail_addr(struct virtqueue * vq)305*c011641eSTuomas Tynkkynen ulong virtqueue_get_avail_addr(struct virtqueue *vq)
306*c011641eSTuomas Tynkkynen {
307*c011641eSTuomas Tynkkynen return (ulong)vq->vring.desc +
308*c011641eSTuomas Tynkkynen ((char *)vq->vring.avail - (char *)vq->vring.desc);
309*c011641eSTuomas Tynkkynen }
310*c011641eSTuomas Tynkkynen
virtqueue_get_used_addr(struct virtqueue * vq)311*c011641eSTuomas Tynkkynen ulong virtqueue_get_used_addr(struct virtqueue *vq)
312*c011641eSTuomas Tynkkynen {
313*c011641eSTuomas Tynkkynen return (ulong)vq->vring.desc +
314*c011641eSTuomas Tynkkynen ((char *)vq->vring.used - (char *)vq->vring.desc);
315*c011641eSTuomas Tynkkynen }
316*c011641eSTuomas Tynkkynen
virtqueue_poll(struct virtqueue * vq,u16 last_used_idx)317*c011641eSTuomas Tynkkynen bool virtqueue_poll(struct virtqueue *vq, u16 last_used_idx)
318*c011641eSTuomas Tynkkynen {
319*c011641eSTuomas Tynkkynen virtio_mb();
320*c011641eSTuomas Tynkkynen
321*c011641eSTuomas Tynkkynen return last_used_idx != virtio16_to_cpu(vq->vdev, vq->vring.used->idx);
322*c011641eSTuomas Tynkkynen }
323*c011641eSTuomas Tynkkynen
virtqueue_dump(struct virtqueue * vq)324*c011641eSTuomas Tynkkynen void virtqueue_dump(struct virtqueue *vq)
325*c011641eSTuomas Tynkkynen {
326*c011641eSTuomas Tynkkynen unsigned int i;
327*c011641eSTuomas Tynkkynen
328*c011641eSTuomas Tynkkynen printf("virtqueue %p for dev %s:\n", vq, vq->vdev->name);
329*c011641eSTuomas Tynkkynen printf("\tindex %u, phys addr %p num %u\n",
330*c011641eSTuomas Tynkkynen vq->index, vq->vring.desc, vq->vring.num);
331*c011641eSTuomas Tynkkynen printf("\tfree_head %u, num_added %u, num_free %u\n",
332*c011641eSTuomas Tynkkynen vq->free_head, vq->num_added, vq->num_free);
333*c011641eSTuomas Tynkkynen printf("\tlast_used_idx %u, avail_flags_shadow %u, avail_idx_shadow %u\n",
334*c011641eSTuomas Tynkkynen vq->last_used_idx, vq->avail_flags_shadow, vq->avail_idx_shadow);
335*c011641eSTuomas Tynkkynen
336*c011641eSTuomas Tynkkynen printf("Descriptor dump:\n");
337*c011641eSTuomas Tynkkynen for (i = 0; i < vq->vring.num; i++) {
338*c011641eSTuomas Tynkkynen printf("\tdesc[%u] = { 0x%llx, len %u, flags %u, next %u }\n",
339*c011641eSTuomas Tynkkynen i, vq->vring.desc[i].addr, vq->vring.desc[i].len,
340*c011641eSTuomas Tynkkynen vq->vring.desc[i].flags, vq->vring.desc[i].next);
341*c011641eSTuomas Tynkkynen }
342*c011641eSTuomas Tynkkynen
343*c011641eSTuomas Tynkkynen printf("Avail ring dump:\n");
344*c011641eSTuomas Tynkkynen printf("\tflags %u, idx %u\n",
345*c011641eSTuomas Tynkkynen vq->vring.avail->flags, vq->vring.avail->idx);
346*c011641eSTuomas Tynkkynen for (i = 0; i < vq->vring.num; i++) {
347*c011641eSTuomas Tynkkynen printf("\tavail[%u] = %u\n",
348*c011641eSTuomas Tynkkynen i, vq->vring.avail->ring[i]);
349*c011641eSTuomas Tynkkynen }
350*c011641eSTuomas Tynkkynen
351*c011641eSTuomas Tynkkynen printf("Used ring dump:\n");
352*c011641eSTuomas Tynkkynen printf("\tflags %u, idx %u\n",
353*c011641eSTuomas Tynkkynen vq->vring.used->flags, vq->vring.used->idx);
354*c011641eSTuomas Tynkkynen for (i = 0; i < vq->vring.num; i++) {
355*c011641eSTuomas Tynkkynen printf("\tused[%u] = { %u, %u }\n", i,
356*c011641eSTuomas Tynkkynen vq->vring.used->ring[i].id, vq->vring.used->ring[i].len);
357*c011641eSTuomas Tynkkynen }
358*c011641eSTuomas Tynkkynen }
359