1112ed2d3SChris Wilson /*
2112ed2d3SChris Wilson  * SPDX-License-Identifier: MIT
3112ed2d3SChris Wilson  *
4112ed2d3SChris Wilson  * Copyright © 2019 Intel Corporation
5112ed2d3SChris Wilson  */
6112ed2d3SChris Wilson 
7112ed2d3SChris Wilson #ifndef __INTEL_CONTEXT_H__
8112ed2d3SChris Wilson #define __INTEL_CONTEXT_H__
9112ed2d3SChris Wilson 
10112ed2d3SChris Wilson #include <linux/lockdep.h>
11112ed2d3SChris Wilson 
1212c255b5SChris Wilson #include "i915_active.h"
13112ed2d3SChris Wilson #include "intel_context_types.h"
14112ed2d3SChris Wilson #include "intel_engine_types.h"
15112ed2d3SChris Wilson 
16112ed2d3SChris Wilson void intel_context_init(struct intel_context *ce,
17112ed2d3SChris Wilson 			struct i915_gem_context *ctx,
18112ed2d3SChris Wilson 			struct intel_engine_cs *engine);
19112ed2d3SChris Wilson 
20112ed2d3SChris Wilson struct intel_context *
215e2a0419SChris Wilson intel_context_create(struct i915_gem_context *ctx,
22112ed2d3SChris Wilson 		     struct intel_engine_cs *engine);
23112ed2d3SChris Wilson 
245e2a0419SChris Wilson void intel_context_free(struct intel_context *ce);
255e2a0419SChris Wilson 
26112ed2d3SChris Wilson /**
276b736de5SChris Wilson  * intel_context_lock_pinned - Stablises the 'pinned' status of the HW context
286b736de5SChris Wilson  * @ce - the context
29112ed2d3SChris Wilson  *
30112ed2d3SChris Wilson  * Acquire a lock on the pinned status of the HW context, such that the context
31112ed2d3SChris Wilson  * can neither be bound to the GPU or unbound whilst the lock is held, i.e.
32112ed2d3SChris Wilson  * intel_context_is_pinned() remains stable.
33112ed2d3SChris Wilson  */
346b736de5SChris Wilson static inline int intel_context_lock_pinned(struct intel_context *ce)
356b736de5SChris Wilson 	__acquires(ce->pin_mutex)
366b736de5SChris Wilson {
376b736de5SChris Wilson 	return mutex_lock_interruptible(&ce->pin_mutex);
386b736de5SChris Wilson }
39112ed2d3SChris Wilson 
406b736de5SChris Wilson /**
416b736de5SChris Wilson  * intel_context_is_pinned - Reports the 'pinned' status
426b736de5SChris Wilson  * @ce - the context
436b736de5SChris Wilson  *
446b736de5SChris Wilson  * While in use by the GPU, the context, along with its ring and page
456b736de5SChris Wilson  * tables is pinned into memory and the GTT.
466b736de5SChris Wilson  *
476b736de5SChris Wilson  * Returns: true if the context is currently pinned for use by the GPU.
486b736de5SChris Wilson  */
49112ed2d3SChris Wilson static inline bool
50112ed2d3SChris Wilson intel_context_is_pinned(struct intel_context *ce)
51112ed2d3SChris Wilson {
52112ed2d3SChris Wilson 	return atomic_read(&ce->pin_count);
53112ed2d3SChris Wilson }
54112ed2d3SChris Wilson 
556b736de5SChris Wilson /**
566b736de5SChris Wilson  * intel_context_unlock_pinned - Releases the earlier locking of 'pinned' status
576b736de5SChris Wilson  * @ce - the context
586b736de5SChris Wilson  *
596b736de5SChris Wilson  * Releases the lock earlier acquired by intel_context_unlock_pinned().
606b736de5SChris Wilson  */
616b736de5SChris Wilson static inline void intel_context_unlock_pinned(struct intel_context *ce)
626b736de5SChris Wilson 	__releases(ce->pin_mutex)
636b736de5SChris Wilson {
646b736de5SChris Wilson 	mutex_unlock(&ce->pin_mutex);
656b736de5SChris Wilson }
66112ed2d3SChris Wilson 
67fa9f6681SChris Wilson int __intel_context_do_pin(struct intel_context *ce);
68fa9f6681SChris Wilson 
69fa9f6681SChris Wilson static inline int intel_context_pin(struct intel_context *ce)
70fa9f6681SChris Wilson {
71fa9f6681SChris Wilson 	if (likely(atomic_inc_not_zero(&ce->pin_count)))
72fa9f6681SChris Wilson 		return 0;
73fa9f6681SChris Wilson 
74fa9f6681SChris Wilson 	return __intel_context_do_pin(ce);
75fa9f6681SChris Wilson }
76112ed2d3SChris Wilson 
77112ed2d3SChris Wilson static inline void __intel_context_pin(struct intel_context *ce)
78112ed2d3SChris Wilson {
79112ed2d3SChris Wilson 	GEM_BUG_ON(!intel_context_is_pinned(ce));
80112ed2d3SChris Wilson 	atomic_inc(&ce->pin_count);
81112ed2d3SChris Wilson }
82112ed2d3SChris Wilson 
83112ed2d3SChris Wilson void intel_context_unpin(struct intel_context *ce);
84112ed2d3SChris Wilson 
856eee33e8SChris Wilson void intel_context_enter_engine(struct intel_context *ce);
866eee33e8SChris Wilson void intel_context_exit_engine(struct intel_context *ce);
876eee33e8SChris Wilson 
886eee33e8SChris Wilson static inline void intel_context_enter(struct intel_context *ce)
896eee33e8SChris Wilson {
906eee33e8SChris Wilson 	if (!ce->active_count++)
916eee33e8SChris Wilson 		ce->ops->enter(ce);
926eee33e8SChris Wilson }
936eee33e8SChris Wilson 
946eee33e8SChris Wilson static inline void intel_context_mark_active(struct intel_context *ce)
956eee33e8SChris Wilson {
966eee33e8SChris Wilson 	++ce->active_count;
976eee33e8SChris Wilson }
986eee33e8SChris Wilson 
996eee33e8SChris Wilson static inline void intel_context_exit(struct intel_context *ce)
1006eee33e8SChris Wilson {
1016eee33e8SChris Wilson 	GEM_BUG_ON(!ce->active_count);
1026eee33e8SChris Wilson 	if (!--ce->active_count)
1036eee33e8SChris Wilson 		ce->ops->exit(ce);
1046eee33e8SChris Wilson }
1056eee33e8SChris Wilson 
10612c255b5SChris Wilson static inline int intel_context_active_acquire(struct intel_context *ce)
10712c255b5SChris Wilson {
10812c255b5SChris Wilson 	return i915_active_acquire(&ce->active);
10912c255b5SChris Wilson }
11012c255b5SChris Wilson 
11112c255b5SChris Wilson static inline void intel_context_active_release(struct intel_context *ce)
11212c255b5SChris Wilson {
11312c255b5SChris Wilson 	/* Nodes preallocated in intel_context_active() */
11412c255b5SChris Wilson 	i915_active_acquire_barrier(&ce->active);
11512c255b5SChris Wilson 	i915_active_release(&ce->active);
11612c255b5SChris Wilson }
117ce476c80SChris Wilson 
118112ed2d3SChris Wilson static inline struct intel_context *intel_context_get(struct intel_context *ce)
119112ed2d3SChris Wilson {
120112ed2d3SChris Wilson 	kref_get(&ce->ref);
121112ed2d3SChris Wilson 	return ce;
122112ed2d3SChris Wilson }
123112ed2d3SChris Wilson 
124112ed2d3SChris Wilson static inline void intel_context_put(struct intel_context *ce)
125112ed2d3SChris Wilson {
126112ed2d3SChris Wilson 	kref_put(&ce->ref, ce->ops->destroy);
127112ed2d3SChris Wilson }
128112ed2d3SChris Wilson 
129f4d57d83SChris Wilson static inline int __must_check
130f4d57d83SChris Wilson intel_context_timeline_lock(struct intel_context *ce)
1312ccdf6a1SChris Wilson 	__acquires(&ce->ring->timeline->mutex)
1322ccdf6a1SChris Wilson {
133f4d57d83SChris Wilson 	return mutex_lock_interruptible(&ce->ring->timeline->mutex);
1342ccdf6a1SChris Wilson }
1352ccdf6a1SChris Wilson 
1362ccdf6a1SChris Wilson static inline void intel_context_timeline_unlock(struct intel_context *ce)
1372ccdf6a1SChris Wilson 	__releases(&ce->ring->timeline->mutex)
1382ccdf6a1SChris Wilson {
1392ccdf6a1SChris Wilson 	mutex_unlock(&ce->ring->timeline->mutex);
1402ccdf6a1SChris Wilson }
1412ccdf6a1SChris Wilson 
142a9877da2SChris Wilson int intel_context_prepare_remote_request(struct intel_context *ce,
143a9877da2SChris Wilson 					 struct i915_request *rq);
144a9877da2SChris Wilson 
1455e2a0419SChris Wilson struct i915_request *intel_context_create_request(struct intel_context *ce);
1465e2a0419SChris Wilson 
147112ed2d3SChris Wilson #endif /* __INTEL_CONTEXT_H__ */
148