provide afs_osi_TimedSleep
[openafs.git] / src / afs / LINUX / osi_sleep.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13
14 #include "afs/sysincludes.h"    /* Standard vendor system headers */
15 #include "afsincludes.h"        /* Afs-based standard headers */
16 #include "afs/afs_stats.h"      /* afs statistics */
17
18 #if defined(FREEZER_H_EXISTS)
19 #include <linux/freezer.h>
20 #endif
21
22 static char waitV, dummyV;
23
24 void
25 afs_osi_InitWaitHandle(struct afs_osi_WaitHandle *achandle)
26 {
27     AFS_STATCNT(osi_InitWaitHandle);
28     achandle->proc = (caddr_t) 0;
29 }
30
31 /* cancel osi_Wait */
32 void
33 afs_osi_CancelWait(struct afs_osi_WaitHandle *achandle)
34 {
35     caddr_t proc;
36
37     AFS_STATCNT(osi_CancelWait);
38     proc = achandle->proc;
39     if (proc == 0)
40         return;
41     achandle->proc = (caddr_t) 0;       /* so dude can figure out he was signalled */
42     afs_osi_Wakeup(&waitV);
43 }
44
45 /* afs_osi_Wait
46  * Waits for data on ahandle, or ams ms later.  ahandle may be null.
47  * Returns 0 if timeout and EINTR if signalled.
48  */
49 int
50 afs_osi_Wait(afs_int32 ams, struct afs_osi_WaitHandle *ahandle, int aintok)
51 {
52     afs_int32 endTime;
53     int code;
54
55     AFS_STATCNT(osi_Wait);
56     endTime = osi_Time() + (ams / 1000);
57     if (ahandle)
58         ahandle->proc = (caddr_t) current;
59
60     do {
61         AFS_ASSERT_GLOCK();
62         code = afs_osi_TimedSleep(&waitV, ams, 1);
63         if (code)
64             break;
65         if (ahandle && (ahandle->proc == (caddr_t) 0)) {
66             /* we've been signalled */
67             break;
68         }
69     } while (osi_Time() < endTime);
70     return code;
71 }
72
73
74
75
76 typedef struct afs_event {
77     struct afs_event *next;     /* next in hash chain */
78     char *event;                /* lwp event: an address */
79     int refcount;               /* Is it in use? */
80     int seq;                    /* Sequence number: this is incremented
81                                  * by wakeup calls; wait will not return until
82                                  * it changes */
83     wait_queue_head_t cond;
84 } afs_event_t;
85
86 #define HASHSIZE 128
87 afs_event_t *afs_evhasht[HASHSIZE];     /* Hash table for events */
88 #define afs_evhash(event)       (afs_uint32) ((((long)event)>>2) & (HASHSIZE-1));
89 int afs_evhashcnt = 0;
90
91 /* Get and initialize event structure corresponding to lwp event (i.e. address)
92  * */
93 static afs_event_t *
94 afs_getevent(char *event)
95 {
96     afs_event_t *evp, *newp = 0;
97     int hashcode;
98
99     AFS_ASSERT_GLOCK();
100     hashcode = afs_evhash(event);
101     evp = afs_evhasht[hashcode];
102     while (evp) {
103         if (evp->event == event) {
104             evp->refcount++;
105             return evp;
106         }
107         if (evp->refcount == 0)
108             newp = evp;
109         evp = evp->next;
110     }
111     if (!newp)
112         return NULL;
113
114     newp->event = event;
115     newp->refcount = 1;
116     return newp;
117 }
118
119 /* afs_addevent -- allocates a new event for the address.  It isn't returned;
120  *     instead, afs_getevent should be called again.  Thus, the real effect of
121  *     this routine is to add another event to the hash bucket for this
122  *     address.
123  *
124  * Locks:
125  *     Called with GLOCK held. However the function might drop
126  *     GLOCK when it calls osi_AllocSmallSpace for allocating
127  *     a new event (In Linux, the allocator drops GLOCK to avoid
128  *     a deadlock).
129  */
130
131 static void
132 afs_addevent(char *event)
133 {
134     int hashcode;
135     afs_event_t *newp;
136
137     AFS_ASSERT_GLOCK();
138     hashcode = afs_evhash(event);
139     newp = osi_linux_alloc(sizeof(afs_event_t), 0);
140     afs_evhashcnt++;
141     newp->next = afs_evhasht[hashcode];
142     afs_evhasht[hashcode] = newp;
143     init_waitqueue_head(&newp->cond);
144     newp->seq = 0;
145     newp->event = &dummyV;      /* Dummy address for new events */
146     newp->refcount = 0;
147 }
148
149 #ifndef set_current_state
150 #define set_current_state(x)            current->state = (x);
151 #endif
152
153 /* Release the specified event */
154 #define relevent(evp) ((evp)->refcount--)
155
156 /* afs_osi_SleepSig
157  *
158  * Waits for an event to be notified, returning early if a signal
159  * is received.  Returns EINTR if signaled, and 0 otherwise.
160  */
161 int
162 afs_osi_SleepSig(void *event)
163 {
164     struct afs_event *evp;
165     int seq, retval;
166 #ifdef DECLARE_WAITQUEUE
167     DECLARE_WAITQUEUE(wait, current);
168 #else
169     struct wait_queue wait = { current, NULL };
170 #endif
171
172     evp = afs_getevent(event);
173     if (!evp) {
174         afs_addevent(event);
175         evp = afs_getevent(event);
176     }
177
178     seq = evp->seq;
179     retval = 0;
180
181     add_wait_queue(&evp->cond, &wait);
182     while (seq == evp->seq) {
183         set_current_state(TASK_INTERRUPTIBLE);
184         AFS_ASSERT_GLOCK();
185         AFS_GUNLOCK();
186         schedule();
187 #ifdef CONFIG_PM
188         if (
189 #ifdef PF_FREEZE
190             current->flags & PF_FREEZE
191 #else
192 #if defined(STRUCT_TASK_STRUCT_HAS_TODO)
193             !current->todo
194 #else
195 #if defined(STRUCT_TASK_STRUCT_HAS_THREAD_INFO)
196             test_ti_thread_flag(current->thread_info, TIF_FREEZE)
197 #else
198             test_ti_thread_flag(task_thread_info(current), TIF_FREEZE)
199 #endif
200 #endif
201 #endif
202             )
203 #ifdef LINUX_REFRIGERATOR_TAKES_PF_FREEZE
204             refrigerator(PF_FREEZE);
205 #else
206             refrigerator();
207 #endif
208 #endif
209         AFS_GLOCK();
210         if (signal_pending(current)) {
211             retval = EINTR;
212             break;
213         }
214     }
215     remove_wait_queue(&evp->cond, &wait);
216     set_current_state(TASK_RUNNING);
217
218     relevent(evp);
219     return retval;
220 }
221
222 /* afs_osi_Sleep -- waits for an event to be notified, ignoring signals.
223  * - NOTE: that on Linux, there are circumstances in which TASK_INTERRUPTIBLE
224  *   can wake up, even if all signals are blocked
225  * - TODO: handle signals correctly by passing an indication back to the
226  *   caller that the wait has been interrupted and the stack should be cleaned
227  *   up preparatory to signal delivery
228  */
229 void
230 afs_osi_Sleep(void *event)
231 {
232     sigset_t saved_set;
233
234     SIG_LOCK(current);
235     saved_set = current->blocked;
236     sigfillset(&current->blocked);
237     RECALC_SIGPENDING(current);
238     SIG_UNLOCK(current);
239
240     afs_osi_SleepSig(event);
241
242     SIG_LOCK(current);
243     current->blocked = saved_set;
244     RECALC_SIGPENDING(current);
245     SIG_UNLOCK(current);
246 }
247
248 /* afs_osi_TimedSleep
249  * 
250  * Arguments:
251  * event - event to sleep on
252  * ams --- max sleep time in milliseconds
253  * aintok - 1 if should sleep interruptibly
254  *
255  * Returns 0 if timeout, EINTR if signalled, and EGAIN if it might
256  * have raced.
257  */
258 int
259 afs_osi_TimedSleep(void *event, afs_int32 ams, int aintok)
260 {
261     int code = 0;
262     long ticks = (ams * HZ / 1000) + 1;
263     struct afs_event *evp;
264 #ifdef DECLARE_WAITQUEUE
265     DECLARE_WAITQUEUE(wait, current);
266 #else
267     struct wait_queue wait = { current, NULL };
268 #endif
269
270     evp = afs_getevent(event);
271     if (!evp) {
272         afs_addevent(event);
273         evp = afs_getevent(event);
274     }
275
276     add_wait_queue(&evp->cond, &wait);
277     set_current_state(TASK_INTERRUPTIBLE);
278     /* always sleep TASK_INTERRUPTIBLE to keep load average
279      * from artifically increasing. */
280     AFS_GUNLOCK();
281
282     if (aintok) {
283         if (schedule_timeout(ticks))
284             code = EINTR;
285     } else
286         schedule_timeout(ticks);
287 #ifdef CONFIG_PM
288     if (
289 #ifdef PF_FREEZE
290             current->flags & PF_FREEZE
291 #else
292 #if defined(STRUCT_TASK_STRUCT_HAS_TODO)
293             !current->todo
294 #else
295 #if defined(STRUCT_TASK_STRUCT_HAS_THREAD_INFO)
296             test_ti_thread_flag(current->thread_info, TIF_FREEZE)
297 #else
298             test_ti_thread_flag(task_thread_info(current), TIF_FREEZE)
299 #endif
300 #endif
301 #endif
302             )
303 #ifdef LINUX_REFRIGERATOR_TAKES_PF_FREEZE
304         refrigerator(PF_FREEZE);
305 #else
306         refrigerator();
307 #endif
308 #endif
309
310     AFS_GLOCK();
311     remove_wait_queue(&evp->cond, &wait);
312     set_current_state(TASK_RUNNING);
313
314     relevent(evp);
315
316     return code;
317 }
318
319
320 int
321 afs_osi_Wakeup(void *event)
322 {
323     int ret = 2;
324     struct afs_event *evp;
325
326     evp = afs_getevent(event);
327     if (!evp)                   /* No sleepers */
328         return 1;
329
330     if (evp->refcount > 1) {
331         evp->seq++;
332         wake_up(&evp->cond);
333         ret = 0;
334     }
335     relevent(evp);
336     return ret;
337 }