13bd94003SHeinz Mauelshagen // SPDX-License-Identifier: GPL-2.0-only
2f5db4af4SJonthan Brassow /*
3f5db4af4SJonthan Brassow * Copyright (C) 2006-2009 Red Hat, Inc.
4f5db4af4SJonthan Brassow *
5f5db4af4SJonthan Brassow * This file is released under the LGPL.
6f5db4af4SJonthan Brassow */
7f5db4af4SJonthan Brassow
8f5db4af4SJonthan Brassow #include <linux/kernel.h>
9f5db4af4SJonthan Brassow #include <linux/module.h>
105a0e3ad6STejun Heo #include <linux/slab.h>
11f5db4af4SJonthan Brassow #include <net/sock.h>
12f5db4af4SJonthan Brassow #include <linux/workqueue.h>
13f5db4af4SJonthan Brassow #include <linux/connector.h>
14f5db4af4SJonthan Brassow #include <linux/device-mapper.h>
15f5db4af4SJonthan Brassow #include <linux/dm-log-userspace.h>
16f5db4af4SJonthan Brassow
17f5db4af4SJonthan Brassow #include "dm-log-userspace-transfer.h"
18f5db4af4SJonthan Brassow
19f5db4af4SJonthan Brassow static uint32_t dm_ulog_seq;
20f5db4af4SJonthan Brassow
21f5db4af4SJonthan Brassow /*
22f5db4af4SJonthan Brassow * Netlink/Connector is an unreliable protocol. How long should
23f5db4af4SJonthan Brassow * we wait for a response before assuming it was lost and retrying?
24f5db4af4SJonthan Brassow * (If we do receive a response after this time, it will be discarded
25f5db4af4SJonthan Brassow * and the response to the resent request will be waited for.
26f5db4af4SJonthan Brassow */
27f5db4af4SJonthan Brassow #define DM_ULOG_RETRY_TIMEOUT (15 * HZ)
28f5db4af4SJonthan Brassow
29f5db4af4SJonthan Brassow /*
30f5db4af4SJonthan Brassow * Pre-allocated space for speed
31f5db4af4SJonthan Brassow */
32f5db4af4SJonthan Brassow #define DM_ULOG_PREALLOCED_SIZE 512
33f5db4af4SJonthan Brassow static struct cn_msg *prealloced_cn_msg;
34f5db4af4SJonthan Brassow static struct dm_ulog_request *prealloced_ulog_tfr;
35f5db4af4SJonthan Brassow
36f5db4af4SJonthan Brassow static struct cb_id ulog_cn_id = {
37f5db4af4SJonthan Brassow .idx = CN_IDX_DM,
38f5db4af4SJonthan Brassow .val = CN_VAL_DM_USERSPACE_LOG
39f5db4af4SJonthan Brassow };
40f5db4af4SJonthan Brassow
41f5db4af4SJonthan Brassow static DEFINE_MUTEX(dm_ulog_lock);
42f5db4af4SJonthan Brassow
43f5db4af4SJonthan Brassow struct receiving_pkg {
44f5db4af4SJonthan Brassow struct list_head list;
45f5db4af4SJonthan Brassow struct completion complete;
46f5db4af4SJonthan Brassow
47f5db4af4SJonthan Brassow uint32_t seq;
48f5db4af4SJonthan Brassow
49f5db4af4SJonthan Brassow int error;
50f5db4af4SJonthan Brassow size_t *data_size;
51f5db4af4SJonthan Brassow char *data;
52f5db4af4SJonthan Brassow };
53f5db4af4SJonthan Brassow
54f5db4af4SJonthan Brassow static DEFINE_SPINLOCK(receiving_list_lock);
55f5db4af4SJonthan Brassow static struct list_head receiving_list;
56f5db4af4SJonthan Brassow
dm_ulog_sendto_server(struct dm_ulog_request * tfr)57f5db4af4SJonthan Brassow static int dm_ulog_sendto_server(struct dm_ulog_request *tfr)
58f5db4af4SJonthan Brassow {
59f5db4af4SJonthan Brassow int r;
60f5db4af4SJonthan Brassow struct cn_msg *msg = prealloced_cn_msg;
61f5db4af4SJonthan Brassow
62f5db4af4SJonthan Brassow memset(msg, 0, sizeof(struct cn_msg));
63f5db4af4SJonthan Brassow
64f5db4af4SJonthan Brassow msg->id.idx = ulog_cn_id.idx;
65f5db4af4SJonthan Brassow msg->id.val = ulog_cn_id.val;
66f5db4af4SJonthan Brassow msg->ack = 0;
67f5db4af4SJonthan Brassow msg->seq = tfr->seq;
68f5db4af4SJonthan Brassow msg->len = sizeof(struct dm_ulog_request) + tfr->data_size;
69f5db4af4SJonthan Brassow
70ac8f7330SDavid Fries r = cn_netlink_send(msg, 0, 0, gfp_any());
71f5db4af4SJonthan Brassow
72f5db4af4SJonthan Brassow return r;
73f5db4af4SJonthan Brassow }
74f5db4af4SJonthan Brassow
75f5db4af4SJonthan Brassow /*
76f5db4af4SJonthan Brassow * Parameters for this function can be either msg or tfr, but not
77f5db4af4SJonthan Brassow * both. This function fills in the reply for a waiting request.
78f5db4af4SJonthan Brassow * If just msg is given, then the reply is simply an ACK from userspace
79f5db4af4SJonthan Brassow * that the request was received.
80f5db4af4SJonthan Brassow *
81f5db4af4SJonthan Brassow * Returns: 0 on success, -ENOENT on failure
82f5db4af4SJonthan Brassow */
fill_pkg(struct cn_msg * msg,struct dm_ulog_request * tfr)83f5db4af4SJonthan Brassow static int fill_pkg(struct cn_msg *msg, struct dm_ulog_request *tfr)
84f5db4af4SJonthan Brassow {
85f5db4af4SJonthan Brassow uint32_t rtn_seq = (msg) ? msg->seq : (tfr) ? tfr->seq : 0;
86f5db4af4SJonthan Brassow struct receiving_pkg *pkg;
87f5db4af4SJonthan Brassow
88f5db4af4SJonthan Brassow /*
89f5db4af4SJonthan Brassow * The 'receiving_pkg' entries in this list are statically
90f5db4af4SJonthan Brassow * allocated on the stack in 'dm_consult_userspace'.
91f5db4af4SJonthan Brassow * Each process that is waiting for a reply from the user
92f5db4af4SJonthan Brassow * space server will have an entry in this list.
93f5db4af4SJonthan Brassow *
94f5db4af4SJonthan Brassow * We are safe to do it this way because the stack space
95f5db4af4SJonthan Brassow * is unique to each process, but still addressable by
96f5db4af4SJonthan Brassow * other processes.
97f5db4af4SJonthan Brassow */
98f5db4af4SJonthan Brassow list_for_each_entry(pkg, &receiving_list, list) {
99f5db4af4SJonthan Brassow if (rtn_seq != pkg->seq)
100f5db4af4SJonthan Brassow continue;
101f5db4af4SJonthan Brassow
102f5db4af4SJonthan Brassow if (msg) {
103f5db4af4SJonthan Brassow pkg->error = -msg->ack;
104f5db4af4SJonthan Brassow /*
105f5db4af4SJonthan Brassow * If we are trying again, we will need to know our
106f5db4af4SJonthan Brassow * storage capacity. Otherwise, along with the
107f5db4af4SJonthan Brassow * error code, we make explicit that we have no data.
108f5db4af4SJonthan Brassow */
109f5db4af4SJonthan Brassow if (pkg->error != -EAGAIN)
110f5db4af4SJonthan Brassow *(pkg->data_size) = 0;
111f5db4af4SJonthan Brassow } else if (tfr->data_size > *(pkg->data_size)) {
112*2e84fecfSHeinz Mauelshagen DMERR("Insufficient space to receive package [%u] (%u vs %zu)",
113*2e84fecfSHeinz Mauelshagen tfr->request_type, tfr->data_size, *(pkg->data_size));
114f5db4af4SJonthan Brassow
115f5db4af4SJonthan Brassow *(pkg->data_size) = 0;
116f5db4af4SJonthan Brassow pkg->error = -ENOSPC;
117f5db4af4SJonthan Brassow } else {
118f5db4af4SJonthan Brassow pkg->error = tfr->error;
119f5db4af4SJonthan Brassow memcpy(pkg->data, tfr->data, tfr->data_size);
120f5db4af4SJonthan Brassow *(pkg->data_size) = tfr->data_size;
121f5db4af4SJonthan Brassow }
122f5db4af4SJonthan Brassow complete(&pkg->complete);
123f5db4af4SJonthan Brassow return 0;
124f5db4af4SJonthan Brassow }
125f5db4af4SJonthan Brassow
126f5db4af4SJonthan Brassow return -ENOENT;
127f5db4af4SJonthan Brassow }
128f5db4af4SJonthan Brassow
129f5db4af4SJonthan Brassow /*
130f5db4af4SJonthan Brassow * This is the connector callback that delivers data
131f5db4af4SJonthan Brassow * that was sent from userspace.
132f5db4af4SJonthan Brassow */
cn_ulog_callback(struct cn_msg * msg,struct netlink_skb_parms * nsp)13318366b05SPhilipp Reisner static void cn_ulog_callback(struct cn_msg *msg, struct netlink_skb_parms *nsp)
134f5db4af4SJonthan Brassow {
135f5db4af4SJonthan Brassow struct dm_ulog_request *tfr = (struct dm_ulog_request *)(msg + 1);
136f5db4af4SJonthan Brassow
13738bf1953SEric W. Biederman if (!capable(CAP_SYS_ADMIN))
13824836479SPhilipp Reisner return;
13924836479SPhilipp Reisner
140f5db4af4SJonthan Brassow spin_lock(&receiving_list_lock);
141f5db4af4SJonthan Brassow if (msg->len == 0)
142f5db4af4SJonthan Brassow fill_pkg(msg, NULL);
143f5db4af4SJonthan Brassow else if (msg->len < sizeof(*tfr))
144f5db4af4SJonthan Brassow DMERR("Incomplete message received (expected %u, got %u): [%u]",
14586a3238cSHeinz Mauelshagen (unsigned int)sizeof(*tfr), msg->len, msg->seq);
146f5db4af4SJonthan Brassow else
147f5db4af4SJonthan Brassow fill_pkg(NULL, tfr);
148f5db4af4SJonthan Brassow spin_unlock(&receiving_list_lock);
149f5db4af4SJonthan Brassow }
150f5db4af4SJonthan Brassow
151f5db4af4SJonthan Brassow /**
152f5db4af4SJonthan Brassow * dm_consult_userspace
1537ec23d50SJonathan Brassow * @uuid: log's universal unique identifier (must be DM_UUID_LEN in size)
1547ec23d50SJonathan Brassow * @luid: log's local unique identifier
155f5db4af4SJonthan Brassow * @request_type: found in include/linux/dm-log-userspace.h
156f5db4af4SJonthan Brassow * @data: data to tx to the server
157f5db4af4SJonthan Brassow * @data_size: size of data in bytes
158f5db4af4SJonthan Brassow * @rdata: place to put return data from server
159f5db4af4SJonthan Brassow * @rdata_size: value-result (amount of space given/amount of space used)
160f5db4af4SJonthan Brassow *
161f5db4af4SJonthan Brassow * rdata_size is undefined on failure.
162f5db4af4SJonthan Brassow *
163f5db4af4SJonthan Brassow * Memory used to communicate with userspace is zero'ed
164f5db4af4SJonthan Brassow * before populating to ensure that no unwanted bits leak
165f5db4af4SJonthan Brassow * from kernel space to user-space. All userspace log communications
166f5db4af4SJonthan Brassow * between kernel and user space go through this function.
167f5db4af4SJonthan Brassow *
168f5db4af4SJonthan Brassow * Returns: 0 on success, -EXXX on failure
169f5db4af4SJonthan Brassow **/
dm_consult_userspace(const char * uuid,uint64_t luid,int request_type,char * data,size_t data_size,char * rdata,size_t * rdata_size)1707ec23d50SJonathan Brassow int dm_consult_userspace(const char *uuid, uint64_t luid, int request_type,
171f5db4af4SJonthan Brassow char *data, size_t data_size,
172f5db4af4SJonthan Brassow char *rdata, size_t *rdata_size)
173f5db4af4SJonthan Brassow {
174f5db4af4SJonthan Brassow int r = 0;
175c32a512fSNicholas Mc Guire unsigned long tmo;
176f5db4af4SJonthan Brassow size_t dummy = 0;
177ebfd32bbSJonathan Brassow int overhead_size = sizeof(struct dm_ulog_request) + sizeof(struct cn_msg);
178f5db4af4SJonthan Brassow struct dm_ulog_request *tfr = prealloced_ulog_tfr;
179f5db4af4SJonthan Brassow struct receiving_pkg pkg;
180f5db4af4SJonthan Brassow
181ebfd32bbSJonathan Brassow /*
182ebfd32bbSJonathan Brassow * Given the space needed to hold the 'struct cn_msg' and
183ebfd32bbSJonathan Brassow * 'struct dm_ulog_request' - do we have enough payload
184ebfd32bbSJonathan Brassow * space remaining?
185ebfd32bbSJonathan Brassow */
186f5db4af4SJonthan Brassow if (data_size > (DM_ULOG_PREALLOCED_SIZE - overhead_size)) {
187f5db4af4SJonthan Brassow DMINFO("Size of tfr exceeds preallocated size");
188f5db4af4SJonthan Brassow return -EINVAL;
189f5db4af4SJonthan Brassow }
190f5db4af4SJonthan Brassow
191f5db4af4SJonthan Brassow if (!rdata_size)
192f5db4af4SJonthan Brassow rdata_size = &dummy;
193f5db4af4SJonthan Brassow resend:
194f5db4af4SJonthan Brassow /*
195f5db4af4SJonthan Brassow * We serialize the sending of requests so we can
196f5db4af4SJonthan Brassow * use the preallocated space.
197f5db4af4SJonthan Brassow */
198f5db4af4SJonthan Brassow mutex_lock(&dm_ulog_lock);
199f5db4af4SJonthan Brassow
200ebfd32bbSJonathan Brassow memset(tfr, 0, DM_ULOG_PREALLOCED_SIZE - sizeof(struct cn_msg));
201f5db4af4SJonthan Brassow memcpy(tfr->uuid, uuid, DM_UUID_LEN);
20286a54a48SJonathan Brassow tfr->version = DM_ULOG_REQUEST_VERSION;
2037ec23d50SJonathan Brassow tfr->luid = luid;
204f5db4af4SJonthan Brassow tfr->seq = dm_ulog_seq++;
205f5db4af4SJonthan Brassow
206f5db4af4SJonthan Brassow /*
207f5db4af4SJonthan Brassow * Must be valid request type (all other bits set to
208f5db4af4SJonthan Brassow * zero). This reserves other bits for possible future
209f5db4af4SJonthan Brassow * use.
210f5db4af4SJonthan Brassow */
211f5db4af4SJonthan Brassow tfr->request_type = request_type & DM_ULOG_REQUEST_MASK;
212f5db4af4SJonthan Brassow
213f5db4af4SJonthan Brassow tfr->data_size = data_size;
214f5db4af4SJonthan Brassow if (data && data_size)
215f5db4af4SJonthan Brassow memcpy(tfr->data, data, data_size);
216f5db4af4SJonthan Brassow
217f5db4af4SJonthan Brassow memset(&pkg, 0, sizeof(pkg));
218f5db4af4SJonthan Brassow init_completion(&pkg.complete);
219f5db4af4SJonthan Brassow pkg.seq = tfr->seq;
220f5db4af4SJonthan Brassow pkg.data_size = rdata_size;
221f5db4af4SJonthan Brassow pkg.data = rdata;
222f5db4af4SJonthan Brassow spin_lock(&receiving_list_lock);
223f5db4af4SJonthan Brassow list_add(&(pkg.list), &receiving_list);
224f5db4af4SJonthan Brassow spin_unlock(&receiving_list_lock);
225f5db4af4SJonthan Brassow
226f5db4af4SJonthan Brassow r = dm_ulog_sendto_server(tfr);
227f5db4af4SJonthan Brassow
228f5db4af4SJonthan Brassow mutex_unlock(&dm_ulog_lock);
229f5db4af4SJonthan Brassow
230f5db4af4SJonthan Brassow if (r) {
231f5db4af4SJonthan Brassow DMERR("Unable to send log request [%u] to userspace: %d",
232f5db4af4SJonthan Brassow request_type, r);
233f5db4af4SJonthan Brassow spin_lock(&receiving_list_lock);
234f5db4af4SJonthan Brassow list_del_init(&(pkg.list));
235f5db4af4SJonthan Brassow spin_unlock(&receiving_list_lock);
236f5db4af4SJonthan Brassow
237f5db4af4SJonthan Brassow goto out;
238f5db4af4SJonthan Brassow }
239f5db4af4SJonthan Brassow
240c32a512fSNicholas Mc Guire tmo = wait_for_completion_timeout(&(pkg.complete), DM_ULOG_RETRY_TIMEOUT);
241f5db4af4SJonthan Brassow spin_lock(&receiving_list_lock);
242f5db4af4SJonthan Brassow list_del_init(&(pkg.list));
243f5db4af4SJonthan Brassow spin_unlock(&receiving_list_lock);
244c32a512fSNicholas Mc Guire if (!tmo) {
245f5db4af4SJonthan Brassow DMWARN("[%s] Request timed out: [%u/%u] - retrying",
246f5db4af4SJonthan Brassow (strlen(uuid) > 8) ?
247f5db4af4SJonthan Brassow (uuid + (strlen(uuid) - 8)) : (uuid),
248f5db4af4SJonthan Brassow request_type, pkg.seq);
249f5db4af4SJonthan Brassow goto resend;
250f5db4af4SJonthan Brassow }
251f5db4af4SJonthan Brassow
252f5db4af4SJonthan Brassow r = pkg.error;
253f5db4af4SJonthan Brassow if (r == -EAGAIN)
254f5db4af4SJonthan Brassow goto resend;
255f5db4af4SJonthan Brassow
256f5db4af4SJonthan Brassow out:
257f5db4af4SJonthan Brassow return r;
258f5db4af4SJonthan Brassow }
259f5db4af4SJonthan Brassow
dm_ulog_tfr_init(void)260f5db4af4SJonthan Brassow int dm_ulog_tfr_init(void)
261f5db4af4SJonthan Brassow {
262f5db4af4SJonthan Brassow int r;
263f5db4af4SJonthan Brassow void *prealloced;
264f5db4af4SJonthan Brassow
265f5db4af4SJonthan Brassow INIT_LIST_HEAD(&receiving_list);
266f5db4af4SJonthan Brassow
267f5db4af4SJonthan Brassow prealloced = kmalloc(DM_ULOG_PREALLOCED_SIZE, GFP_KERNEL);
268f5db4af4SJonthan Brassow if (!prealloced)
269f5db4af4SJonthan Brassow return -ENOMEM;
270f5db4af4SJonthan Brassow
271f5db4af4SJonthan Brassow prealloced_cn_msg = prealloced;
272f5db4af4SJonthan Brassow prealloced_ulog_tfr = prealloced + sizeof(struct cn_msg);
273f5db4af4SJonthan Brassow
274f5db4af4SJonthan Brassow r = cn_add_callback(&ulog_cn_id, "dmlogusr", cn_ulog_callback);
275f5db4af4SJonthan Brassow if (r) {
27656ec16cbSAlexey Khoroshilov kfree(prealloced_cn_msg);
277f5db4af4SJonthan Brassow return r;
278f5db4af4SJonthan Brassow }
279f5db4af4SJonthan Brassow
280f5db4af4SJonthan Brassow return 0;
281f5db4af4SJonthan Brassow }
282f5db4af4SJonthan Brassow
dm_ulog_tfr_exit(void)283f5db4af4SJonthan Brassow void dm_ulog_tfr_exit(void)
284f5db4af4SJonthan Brassow {
285f5db4af4SJonthan Brassow cn_del_callback(&ulog_cn_id);
286f5db4af4SJonthan Brassow kfree(prealloced_cn_msg);
287f5db4af4SJonthan Brassow }
288