Commit 9eae8655 authored by Pavel Begunkov's avatar Pavel Begunkov Committed by Jens Axboe

io_uring/rsrc: cache struct io_rsrc_node

Add allocation cache for struct io_rsrc_node, it's always allocated and
put under ->uring_lock, so it doesn't need any extra synchronisation
around caches.
Signed-off-by: default avatarPavel Begunkov <asml.silence@gmail.com>
Link: https://lore.kernel.org/r/252a9d9ef9654e6467af30fdc02f57c0118fb76e.1680576071.git.asml.silence@gmail.comSigned-off-by: default avatarJens Axboe <axboe@kernel.dk>
parent 36b9818a
...@@ -332,6 +332,7 @@ struct io_ring_ctx { ...@@ -332,6 +332,7 @@ struct io_ring_ctx {
/* protected by ->uring_lock */ /* protected by ->uring_lock */
struct list_head rsrc_ref_list; struct list_head rsrc_ref_list;
struct io_alloc_cache rsrc_node_cache;
struct list_head io_buffers_pages; struct list_head io_buffers_pages;
......
...@@ -310,6 +310,7 @@ static __cold struct io_ring_ctx *io_ring_ctx_alloc(struct io_uring_params *p) ...@@ -310,6 +310,7 @@ static __cold struct io_ring_ctx *io_ring_ctx_alloc(struct io_uring_params *p)
INIT_LIST_HEAD(&ctx->sqd_list); INIT_LIST_HEAD(&ctx->sqd_list);
INIT_LIST_HEAD(&ctx->cq_overflow_list); INIT_LIST_HEAD(&ctx->cq_overflow_list);
INIT_LIST_HEAD(&ctx->io_buffers_cache); INIT_LIST_HEAD(&ctx->io_buffers_cache);
io_alloc_cache_init(&ctx->rsrc_node_cache, sizeof(struct io_rsrc_node));
io_alloc_cache_init(&ctx->apoll_cache, sizeof(struct async_poll)); io_alloc_cache_init(&ctx->apoll_cache, sizeof(struct async_poll));
io_alloc_cache_init(&ctx->netmsg_cache, sizeof(struct io_async_msghdr)); io_alloc_cache_init(&ctx->netmsg_cache, sizeof(struct io_async_msghdr));
init_completion(&ctx->ref_comp); init_completion(&ctx->ref_comp);
...@@ -2790,6 +2791,11 @@ static void io_req_caches_free(struct io_ring_ctx *ctx) ...@@ -2790,6 +2791,11 @@ static void io_req_caches_free(struct io_ring_ctx *ctx)
mutex_unlock(&ctx->uring_lock); mutex_unlock(&ctx->uring_lock);
} }
static void io_rsrc_node_cache_free(struct io_cache_entry *entry)
{
kfree(container_of(entry, struct io_rsrc_node, cache));
}
static __cold void io_ring_ctx_free(struct io_ring_ctx *ctx) static __cold void io_ring_ctx_free(struct io_ring_ctx *ctx)
{ {
io_sq_thread_finish(ctx); io_sq_thread_finish(ctx);
...@@ -2815,9 +2821,9 @@ static __cold void io_ring_ctx_free(struct io_ring_ctx *ctx) ...@@ -2815,9 +2821,9 @@ static __cold void io_ring_ctx_free(struct io_ring_ctx *ctx)
/* there are no registered resources left, nobody uses it */ /* there are no registered resources left, nobody uses it */
if (ctx->rsrc_node) if (ctx->rsrc_node)
io_rsrc_node_destroy(ctx->rsrc_node); io_rsrc_node_destroy(ctx, ctx->rsrc_node);
if (ctx->rsrc_backup_node) if (ctx->rsrc_backup_node)
io_rsrc_node_destroy(ctx->rsrc_backup_node); io_rsrc_node_destroy(ctx, ctx->rsrc_backup_node);
WARN_ON_ONCE(!list_empty(&ctx->rsrc_ref_list)); WARN_ON_ONCE(!list_empty(&ctx->rsrc_ref_list));
...@@ -2829,6 +2835,7 @@ static __cold void io_ring_ctx_free(struct io_ring_ctx *ctx) ...@@ -2829,6 +2835,7 @@ static __cold void io_ring_ctx_free(struct io_ring_ctx *ctx)
#endif #endif
WARN_ON_ONCE(!list_empty(&ctx->ltimeout_list)); WARN_ON_ONCE(!list_empty(&ctx->ltimeout_list));
io_alloc_cache_free(&ctx->rsrc_node_cache, io_rsrc_node_cache_free);
if (ctx->mm_account) { if (ctx->mm_account) {
mmdrop(ctx->mm_account); mmdrop(ctx->mm_account);
ctx->mm_account = NULL; ctx->mm_account = NULL;
......
...@@ -164,7 +164,7 @@ static void __io_rsrc_put_work(struct io_rsrc_node *ref_node) ...@@ -164,7 +164,7 @@ static void __io_rsrc_put_work(struct io_rsrc_node *ref_node)
kfree(prsrc); kfree(prsrc);
} }
io_rsrc_node_destroy(ref_node); io_rsrc_node_destroy(rsrc_data->ctx, ref_node);
if (atomic_dec_and_test(&rsrc_data->refs)) if (atomic_dec_and_test(&rsrc_data->refs))
complete(&rsrc_data->done); complete(&rsrc_data->done);
} }
...@@ -175,9 +175,10 @@ void io_wait_rsrc_data(struct io_rsrc_data *data) ...@@ -175,9 +175,10 @@ void io_wait_rsrc_data(struct io_rsrc_data *data)
wait_for_completion(&data->done); wait_for_completion(&data->done);
} }
void io_rsrc_node_destroy(struct io_rsrc_node *ref_node) void io_rsrc_node_destroy(struct io_ring_ctx *ctx, struct io_rsrc_node *node)
{ {
kfree(ref_node); if (!io_alloc_cache_put(&ctx->rsrc_node_cache, &node->cache))
kfree(node);
} }
void io_rsrc_node_ref_zero(struct io_rsrc_node *node) void io_rsrc_node_ref_zero(struct io_rsrc_node *node)
...@@ -198,13 +199,19 @@ void io_rsrc_node_ref_zero(struct io_rsrc_node *node) ...@@ -198,13 +199,19 @@ void io_rsrc_node_ref_zero(struct io_rsrc_node *node)
} }
} }
static struct io_rsrc_node *io_rsrc_node_alloc(void) static struct io_rsrc_node *io_rsrc_node_alloc(struct io_ring_ctx *ctx)
{ {
struct io_rsrc_node *ref_node; struct io_rsrc_node *ref_node;
struct io_cache_entry *entry;
ref_node = kzalloc(sizeof(*ref_node), GFP_KERNEL); entry = io_alloc_cache_get(&ctx->rsrc_node_cache);
if (!ref_node) if (entry) {
return NULL; ref_node = container_of(entry, struct io_rsrc_node, cache);
} else {
ref_node = kzalloc(sizeof(*ref_node), GFP_KERNEL);
if (!ref_node)
return NULL;
}
ref_node->refs = 1; ref_node->refs = 1;
INIT_LIST_HEAD(&ref_node->node); INIT_LIST_HEAD(&ref_node->node);
...@@ -243,7 +250,7 @@ int io_rsrc_node_switch_start(struct io_ring_ctx *ctx) ...@@ -243,7 +250,7 @@ int io_rsrc_node_switch_start(struct io_ring_ctx *ctx)
{ {
if (ctx->rsrc_backup_node) if (ctx->rsrc_backup_node)
return 0; return 0;
ctx->rsrc_backup_node = io_rsrc_node_alloc(); ctx->rsrc_backup_node = io_rsrc_node_alloc(ctx);
return ctx->rsrc_backup_node ? 0 : -ENOMEM; return ctx->rsrc_backup_node ? 0 : -ENOMEM;
} }
......
...@@ -4,6 +4,8 @@ ...@@ -4,6 +4,8 @@
#include <net/af_unix.h> #include <net/af_unix.h>
#include "alloc_cache.h"
#define IO_RSRC_TAG_TABLE_SHIFT (PAGE_SHIFT - 3) #define IO_RSRC_TAG_TABLE_SHIFT (PAGE_SHIFT - 3)
#define IO_RSRC_TAG_TABLE_MAX (1U << IO_RSRC_TAG_TABLE_SHIFT) #define IO_RSRC_TAG_TABLE_MAX (1U << IO_RSRC_TAG_TABLE_SHIFT)
#define IO_RSRC_TAG_TABLE_MASK (IO_RSRC_TAG_TABLE_MAX - 1) #define IO_RSRC_TAG_TABLE_MASK (IO_RSRC_TAG_TABLE_MAX - 1)
...@@ -37,8 +39,11 @@ struct io_rsrc_data { ...@@ -37,8 +39,11 @@ struct io_rsrc_data {
}; };
struct io_rsrc_node { struct io_rsrc_node {
union {
struct io_cache_entry cache;
struct io_rsrc_data *rsrc_data;
};
struct list_head node; struct list_head node;
struct io_rsrc_data *rsrc_data;
struct llist_node llist; struct llist_node llist;
int refs; int refs;
bool done; bool done;
...@@ -65,7 +70,7 @@ void io_rsrc_put_tw(struct callback_head *cb); ...@@ -65,7 +70,7 @@ void io_rsrc_put_tw(struct callback_head *cb);
void io_rsrc_node_ref_zero(struct io_rsrc_node *node); void io_rsrc_node_ref_zero(struct io_rsrc_node *node);
void io_rsrc_put_work(struct work_struct *work); void io_rsrc_put_work(struct work_struct *work);
void io_wait_rsrc_data(struct io_rsrc_data *data); void io_wait_rsrc_data(struct io_rsrc_data *data);
void io_rsrc_node_destroy(struct io_rsrc_node *ref_node); void io_rsrc_node_destroy(struct io_ring_ctx *ctx, struct io_rsrc_node *ref_node);
int io_rsrc_node_switch_start(struct io_ring_ctx *ctx); int io_rsrc_node_switch_start(struct io_ring_ctx *ctx);
int io_queue_rsrc_removal(struct io_rsrc_data *data, unsigned idx, int io_queue_rsrc_removal(struct io_rsrc_data *data, unsigned idx,
struct io_rsrc_node *node, void *rsrc); struct io_rsrc_node *node, void *rsrc);
......
Markdown is supported
0%
or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment