f3de7c51eb778a15746a09725e6259d25a64bfff
[openafs.git] / src / afs / LINUX / osi_sleep.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "../afs/param.h"
12
13 RCSID("$Header$");
14
15 #include "../afs/sysincludes.h" /* Standard vendor system headers */
16 #include "../afs/afsincludes.h" /* Afs-based standard headers */
17 #include "../afs/afs_stats.h"   /* afs statistics */
18
19 static int osi_TimedSleep(char *event, afs_int32 ams, int aintok);
20
21 static char waitV, dummyV;
22
23 void afs_osi_InitWaitHandle(struct afs_osi_WaitHandle *achandle)
24 {
25     AFS_STATCNT(osi_InitWaitHandle);
26     achandle->proc = (caddr_t) 0;
27 }
28
29 /* cancel osi_Wait */
30 void afs_osi_CancelWait(struct afs_osi_WaitHandle *achandle)
31 {
32     caddr_t proc;
33
34     AFS_STATCNT(osi_CancelWait);
35     proc = achandle->proc;
36     if (proc == 0) return;
37     achandle->proc = (caddr_t) 0;   /* so dude can figure out he was signalled */
38     afs_osi_Wakeup(&waitV);
39 }
40
41 /* afs_osi_Wait
42  * Waits for data on ahandle, or ams ms later.  ahandle may be null.
43  * Returns 0 if timeout and EINTR if signalled.
44  */
45 int afs_osi_Wait(afs_int32 ams, struct afs_osi_WaitHandle *ahandle, int aintok)
46 {
47     afs_int32 endTime;
48     struct timer_list *timer = NULL;
49     int code;
50
51     AFS_STATCNT(osi_Wait);
52     endTime = osi_Time() + (ams/1000);
53     if (ahandle)
54         ahandle->proc = (caddr_t) current;
55
56     do {
57         AFS_ASSERT_GLOCK();
58         code = osi_TimedSleep(&waitV, ams, 1);
59         if (code) break;
60         if (ahandle && (ahandle->proc == (caddr_t) 0)) {
61             /* we've been signalled */
62             break;
63         }
64     } while (osi_Time() < endTime);
65     return code;
66 }
67
68
69
70
71 typedef struct afs_event {
72     struct afs_event *next;     /* next in hash chain */
73     char *event;                /* lwp event: an address */
74     int refcount;               /* Is it in use? */
75     int seq;                    /* Sequence number: this is incremented
76                                    by wakeup calls; wait will not return until
77                                    it changes */
78 #if defined(AFS_LINUX24_ENV)
79     wait_queue_head_t cond;
80 #else
81     struct wait_queue *cond;
82 #endif
83 } afs_event_t;
84
85 #define HASHSIZE 128
86 afs_event_t *afs_evhasht[HASHSIZE];/* Hash table for events */
87 #define afs_evhash(event)       (afs_uint32) ((((long)event)>>2) & (HASHSIZE-1));
88 int afs_evhashcnt = 0;
89
90 /* Get and initialize event structure corresponding to lwp event (i.e. address)
91  * */
92 static afs_event_t *afs_getevent(char *event)
93 {
94     afs_event_t *evp, *newp = 0;
95     int hashcode;
96
97     AFS_ASSERT_GLOCK();
98     hashcode = afs_evhash(event);
99     evp = afs_evhasht[hashcode];
100     while (evp) {
101         if (evp->event == event) {
102             evp->refcount++;
103             return evp;
104         }
105         if (evp->refcount == 0)
106             newp = evp;
107         evp = evp->next;
108     }
109     if (!newp)
110         return NULL;
111
112     newp->event = event;
113     newp->refcount = 1;
114     return newp;
115 }
116
117 /* afs_addevent -- allocates a new event for the address.  It isn't returned;
118  *     instead, afs_getevent should be called again.  Thus, the real effect of
119  *     this routine is to add another event to the hash bucket for this
120  *     address.
121  *
122  * Locks:
123  *     Called with GLOCK held. However the function might drop
124  *     GLOCK when it calls osi_AllocSmallSpace for allocating
125  *     a new event (In Linux, the allocator drops GLOCK to avoid
126  *     a deadlock).
127  */
128
129 static void afs_addevent(char *event)
130 {
131     int hashcode;
132     afs_event_t *newp;
133     
134     AFS_ASSERT_GLOCK();
135     hashcode = afs_evhash(event);
136     newp = osi_linux_alloc(sizeof(afs_event_t), 0);
137     afs_evhashcnt++;
138     newp->next = afs_evhasht[hashcode];
139     afs_evhasht[hashcode] = newp;
140 #if defined(AFS_LINUX24_ENV)
141     init_waitqueue_head(&newp->cond);
142 #else
143     init_waitqueue(&newp->cond);
144 #endif
145     newp->seq = 0;
146     newp->event = &dummyV;  /* Dummy address for new events */
147     newp->refcount = 0;
148 }
149
150 #ifndef set_current_state
151 #define set_current_state(x)            current->state = (x);
152 #endif
153
154 /* Release the specified event */
155 #define relevent(evp) ((evp)->refcount--)
156
157 /* afs_osi_SleepSig
158  *
159  * Waits for an event to be notified, returning early if a signal
160  * is received.  Returns EINTR if signaled, and 0 otherwise.
161  */
162 int afs_osi_SleepSig(void *event)
163 {
164     struct afs_event *evp;
165     int seq, retval;
166 #ifdef DECLARE_WAITQUEUE
167     DECLARE_WAITQUEUE(wait, current);
168 #else
169     struct wait_queue wait = { current, NULL };
170 #endif
171
172     evp = afs_getevent(event);
173     if (!evp) {
174         afs_addevent(event);
175         evp = afs_getevent(event);
176     }
177
178     seq = evp->seq;
179     retval = 0;
180
181     add_wait_queue(&evp->cond, &wait);
182     while (seq == evp->seq) {
183         set_current_state(TASK_INTERRUPTIBLE);
184         AFS_ASSERT_GLOCK();
185         AFS_GUNLOCK();
186         schedule();
187         AFS_GLOCK();
188         if (signal_pending(current)) {
189             retval = EINTR;
190             break;
191         }
192     }
193     remove_wait_queue(&evp->cond, &wait);
194     set_current_state(TASK_RUNNING);
195
196     relevent(evp);
197     return retval;
198 }
199
200 /* afs_osi_Sleep -- waits for an event to be notified, ignoring signals.
201  * - NOTE: that on Linux, there are circumstances in which TASK_INTERRUPTIBLE
202  *   can wake up, even if all signals are blocked
203  * - TODO: handle signals correctly by passing an indication back to the
204  *   caller that the wait has been interrupted and the stack should be cleaned
205  *   up preparatory to signal delivery
206  */
207 void afs_osi_Sleep(void *event)
208 {
209     sigset_t saved_set;
210
211     spin_lock_irq(&current->sigmask_lock);
212     saved_set = current->blocked;
213     sigfillset(&current->blocked);
214     recalc_sigpending(current);
215     spin_unlock_irq(&current->sigmask_lock);
216
217     afs_osi_SleepSig(event);
218
219     spin_lock_irq(&current->sigmask_lock);
220     current->blocked = saved_set;
221     recalc_sigpending(current);
222     spin_unlock_irq(&current->sigmask_lock);
223 }
224
225 /* osi_TimedSleep
226  * 
227  * Arguments:
228  * event - event to sleep on
229  * ams --- max sleep time in milliseconds
230  * aintok - 1 if should sleep interruptibly
231  *
232  * Returns 0 if timeout, EINTR if signalled, and EGAIN if it might
233  * have raced.
234  */
235 static int osi_TimedSleep(char *event, afs_int32 ams, int aintok)
236 {
237     int code = 0;
238     long ticks = (ams * HZ / 1000) + 1;
239     struct afs_event *evp;
240 #ifdef DECLARE_WAITQUEUE
241     DECLARE_WAITQUEUE(wait, current);
242 #else
243     struct wait_queue wait = { current, NULL };
244 #endif
245
246     evp = afs_getevent(event);
247     if (!evp) {
248         afs_addevent(event);
249         evp = afs_getevent(event);
250     }
251
252     add_wait_queue(&evp->cond, &wait);
253     set_current_state(TASK_INTERRUPTIBLE);
254                 /* always sleep TASK_INTERRUPTIBLE to keep load average
255                    from artifically increasing. */
256     AFS_GUNLOCK();
257
258     if (aintok) {
259         if (schedule_timeout(ticks))
260             code = EINTR;
261     } else
262         schedule_timeout(ticks);
263
264     AFS_GLOCK();
265     remove_wait_queue(&evp->cond, &wait);
266     set_current_state(TASK_RUNNING);
267
268     relevent(evp);
269
270     return code;
271 }
272
273
274 void afs_osi_Wakeup(void *event)
275 {
276     struct afs_event *evp;
277
278     evp = afs_getevent(event);
279     if (!evp)                          /* No sleepers */
280         return;
281
282     if (evp->refcount > 1) {
283         evp->seq++;    
284         wake_up(&evp->cond);
285     }
286     relevent(evp);
287 }