freebsd-50-creds-20030701
[openafs.git] / src / afs / afs_osi.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  *
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13 RCSID("$Header$");
14
15 #include "afs/sysincludes.h"    /* Standard vendor system headers */
16 #include "afsincludes.h"        /* Afs-based standard headers */
17 #include "afs/afs_stats.h"   /* afs statistics */
18 #ifdef AFS_AIX_ENV
19 #include <sys/adspace.h>        /* for vm_att(), vm_det() */
20 #endif
21
22 static char memZero;                    /* address of 0 bytes for kmem_alloc */
23
24 struct osimem {
25     struct osimem *next;
26 };
27
28 /* osi_Init -- do once per kernel installation initialization.
29  *     -- On Solaris this is called from modload initialization.
30  *     -- On AIX called from afs_config.
31  *     -- On HP called from afsc_link.
32  *     -- On SGI called from afs_init. */
33
34 #ifdef AFS_SGI53_ENV
35 lock_t afs_event_lock;
36 #endif
37
38 #ifdef AFS_SGI64_ENV
39 flid_t osi_flid;
40 #endif
41
42 void osi_Init(void)
43 {
44     static int once = 0;
45     if (once++ > 0)                     /* just in case */
46         return;
47 #if     defined(AFS_HPUX_ENV)
48     osi_InitGlock();
49 #else   /* AFS_HPUX_ENV */
50 #if defined(AFS_GLOBAL_SUNLOCK)
51 #if defined(AFS_SGI62_ENV)
52     mutex_init(&afs_global_lock, MUTEX_DEFAULT, "afs_global_lock");
53 #elif defined(AFS_OSF_ENV)
54     usimple_lock_init(&afs_global_lock);
55     afs_global_owner = (thread_t)0;
56 #elif defined(AFS_DARWIN_ENV) || defined(AFS_XBSD_ENV)
57     lockinit(&afs_global_lock, PLOCK, "afs global lock", 0, 0);
58     afs_global_owner = 0;
59 #elif defined(AFS_AIX41_ENV)
60     lock_alloc((void*)&afs_global_lock, LOCK_ALLOC_PIN, 1, 1);
61     simple_lock_init((void *)&afs_global_lock);
62 #elif !defined(AFS_LINUX22_ENV)
63      /* Linux initialization in osi directory. Should move the others. */
64     mutex_init(&afs_global_lock, "afs_global_lock", MUTEX_DEFAULT, NULL);
65 #endif
66     /* afs_rxglobal_lock is initialized in rx_Init. */
67 #endif  /* AFS_GLOBAL_SUNLOCK */
68 #endif  /* AFS_HPUX_ENV */
69
70     if (!afs_osicred_initialized) {
71         memset(&afs_osi_cred, 0, sizeof(struct AFS_UCRED));
72 #ifdef AFS_FBSD50_ENV
73         /*
74          * We don't init the mutex.
75          * This will be trouble if anyone tries to use change the refcount.
76          * Proper fix would be to make afs_osi_cred into a pointer,
77          * and crdup() it from curthread.
78          */
79         afs_osi_cred.cr_ref = 1;
80 #else
81         crhold(&afs_osi_cred);  /* don't let it evaporate */
82 #endif
83         afs_osicred_initialized = 1;
84     }
85
86 #ifdef AFS_SGI64_ENV
87     osi_flid.fl_pid = osi_flid.fl_sysid = 0;
88 #endif
89
90     init_et_to_sys_error();
91 }
92
93 int osi_Active(register struct vcache *avc)
94 {
95     AFS_STATCNT(osi_Active);
96 #if defined(AFS_SUN_ENV) || defined(AFS_AIX_ENV) || defined(AFS_OSF_ENV) || defined(AFS_SUN5_ENV) || (AFS_LINUX20_ENV) || defined(AFS_DARWIN_ENV) || defined(AFS_XBSD_ENV)
97     if ((avc->opens > 0) || (avc->states & CMAPPED))    return 1;   /* XXX: Warning, verify this XXX  */
98 #elif   defined(AFS_MACH_ENV)
99     if (avc->opens > 0 || ((avc->v.v_flag & VTEXT) && !inode_uncache_try(avc))) return 1;
100 #elif defined(AFS_SGI_ENV)
101     if ((avc->opens > 0) || AFS_VN_MAPPED(AFSTOV(avc)))
102         return 1;
103 #else
104     if (avc->opens > 0 || (AFSTOV(avc)->v_flag & VTEXT)) return(1);
105 #endif
106     return 0;
107 }
108
109 /* this call, unlike osi_FlushText, is supposed to discard caches that may
110    contain invalid information if a file is written remotely, but that may
111    contain valid information that needs to be written back if the file is
112    being written locally.  It doesn't subsume osi_FlushText, since the latter
113    function may be needed to flush caches that are invalidated by local writes.
114
115    avc->pvnLock is already held, avc->lock is guaranteed not to be held (by
116    us, of course).
117 */
118 void osi_FlushPages(register struct vcache *avc, struct AFS_UCRED *credp)
119 {
120     afs_hyper_t origDV;
121     ObtainReadLock(&avc->lock);
122     /* If we've already purged this version, or if we're the ones
123        writing this version, don't flush it (could lose the
124        data we're writing). */
125     if ((hcmp((avc->m.DataVersion), (avc->mapDV)) <= 0) ||
126         ((avc->execsOrWriters > 0) && afs_DirtyPages(avc))) {
127         ReleaseReadLock(&avc->lock);
128         return;
129     }
130     ReleaseReadLock(&avc->lock);
131     ObtainWriteLock(&avc->lock,10);
132     /* Check again */
133     if ((hcmp((avc->m.DataVersion), (avc->mapDV)) <= 0) ||
134         ((avc->execsOrWriters > 0) && afs_DirtyPages(avc))) {
135         ReleaseWriteLock(&avc->lock);
136         return;
137     }
138     if (hiszero(avc->mapDV)) {
139         hset(avc->mapDV, avc->m.DataVersion);
140         ReleaseWriteLock(&avc->lock);
141         return;
142     }
143
144     AFS_STATCNT(osi_FlushPages);
145     hset(origDV, avc->m.DataVersion);
146     afs_Trace3(afs_iclSetp, CM_TRACE_FLUSHPAGES, ICL_TYPE_POINTER, avc,
147                    ICL_TYPE_INT32, origDV.low, ICL_TYPE_INT32, avc->m.Length);
148
149     ReleaseWriteLock(&avc->lock);
150     AFS_GUNLOCK();
151     osi_VM_FlushPages(avc, credp);
152     AFS_GLOCK();
153     ObtainWriteLock(&avc->lock,88);
154
155     /* do this last, and to original version, since stores may occur
156        while executing above PUTPAGE call */
157     hset(avc->mapDV, origDV);
158     ReleaseWriteLock(&avc->lock);
159 }
160
161 afs_lock_t afs_ftf;             /* flush text lock */
162
163 #ifdef  AFS_TEXT_ENV
164
165 /* This call is supposed to flush all caches that might be invalidated
166  * by either a local write operation or a write operation done on
167  * another client.  This call may be called repeatedly on the same
168  * version of a file, even while a file is being written, so it
169  * shouldn't do anything that would discard newly written data before
170  * it is written to the file system. */
171
172 void osi_FlushText_really(register struct vcache *vp)
173 {
174     afs_hyper_t fdv;    /* version before which we'll flush */
175
176     AFS_STATCNT(osi_FlushText);
177     /* see if we've already flushed this data version */
178     if (hcmp(vp->m.DataVersion, vp->flushDV) <= 0) return;
179
180 #ifdef AFS_DEC_ENV
181     {
182       void afs_gfs_FlushText();
183       afs_gfs_FlushText(vp);
184       return;
185     }
186 #else
187
188     MObtainWriteLock(&afs_ftf,317);
189     hset(fdv, vp->m.DataVersion);
190
191     /* why this disgusting code below?
192      *    xuntext, called by xrele, doesn't notice when it is called
193      * with a freed text object.  Sun continually calls xrele or xuntext
194      * without any locking, as long as VTEXT is set on the
195      * corresponding vnode.
196      *    But, if the text object is locked when you check the VTEXT
197      * flag, several processes can wait in xuntext, waiting for the
198      * text lock; when the second one finally enters xuntext's
199      * critical region, the text object is already free, but the check
200      * was already done by xuntext's caller.
201      *    Even worse, it turns out that xalloc locks the text object
202      * before reading or stating a file via the vnode layer.  Thus, we
203      * could end up in getdcache, being asked to bring in a new
204      * version of a file, but the corresponding text object could be
205      * locked.  We can't flush the text object without causing
206      * deadlock, so now we just don't try to lock the text object
207      * unless it is guaranteed to work.  And we try to flush the text
208      * when we need to a bit more often at the vnode layer.  Sun
209      * really blew the vm-cache flushing interface.
210      */
211
212 #if defined (AFS_HPUX_ENV)
213     if (vp->v.v_flag & VTEXT) {
214         xrele(vp);
215
216         if (vp->v.v_flag & VTEXT) {     /* still has a text object? */
217             MReleaseWriteLock(&afs_ftf);
218             return;
219         }
220     }
221 #endif
222
223     /* next do the stuff that need not check for deadlock problems */
224     mpurge(vp);
225
226     /* finally, record that we've done it */
227     hset(vp->flushDV, fdv);
228     MReleaseWriteLock(&afs_ftf);
229
230 #endif /* AFS_DEC_ENV */
231 }
232
233 #ifdef AFS_DEC_ENV
234 /* I don't really like using xinval() here, because it kills processes
235  * a bit aggressively.  Previous incarnations of this functionality
236  * used to use xrele() instead of xinval, and didn't invoke
237  * cacheinval().  But they would panic.  So it might be worth looking
238  * into some middle ground...
239  */
240 static void afs_gfs_FlushText(register struct vcache *vp)
241 {
242     afs_hyper_t fdv;            /* version before which we'll flush */
243     register struct text *xp;
244     struct gnode * gp;
245
246     MObtainWriteLock(&afs_ftf,318);
247     hset(fdv, vp->m.DataVersion);
248     gp = afs_vntogn(vp);
249
250     if (!gp) {
251         /* this happens frequently after cores are created. */
252         MReleaseWriteLock(&afs_ftf);
253         return;
254     }
255
256     if (gp->g_flag & GTEXT) {
257         if (gp->g_textp) {
258             xp = (struct text *) gp->g_textp ;
259             /* if text object is locked, give up */
260             if (xp && (xp->x_flag & XLOCK)) {
261                 MReleaseWriteLock(&afs_ftf);
262                 return;
263             }
264         }
265         else xp = NULL;
266
267         if (gp->g_flag & GTEXT) { /* still has a text object? */
268             xinval(gp);
269         }
270     }
271
272     /* next do the stuff that need not check for deadlock problems */
273     /*    maybe xinval(gp); here instead of above */
274     binval(NODEV, gp);
275     cacheinval(gp);
276     /* finally, record that we've done it */
277     hset(vp->flushDV, fdv);
278
279     MReleaseWriteLock(&afs_ftf);
280 }
281 #endif /* AFS_DEC_ENV */
282
283 #endif /* AFS_TEXT_ENV */
284
285 /* mask signals in afsds */
286 void afs_osi_MaskSignals(void)
287 {
288 #ifdef AFS_LINUX22_ENV
289     osi_linux_mask();
290 #endif
291 }
292
293 /* unmask signals in rxk listener */
294 void afs_osi_UnmaskRxkSignals(void)
295 {
296 }
297
298 /* register rxk listener proc info */
299 void afs_osi_RxkRegister(void)
300 {
301 #ifdef AFS_LINUX22_ENV
302     osi_linux_rxkreg();
303 #endif
304 }
305
306 /* procedure for making our processes as invisible as we can */
307 void afs_osi_Invisible(void)
308 {
309 #ifdef AFS_LINUX22_ENV
310     afs_osi_MaskSignals();
311 #elif defined(AFS_DEC_ENV)
312     u.u_procp->p_type |= SSYS;
313 #elif defined(AFS_SUN5_ENV)
314     curproc->p_flag |= SSYS;
315 #elif defined(AFS_HPUX101_ENV)
316     set_system_proc(u.u_procp);
317 #elif defined(AFS_DARWIN_ENV)
318     /* maybe call init_process instead? */
319     current_proc()->p_flag |= P_SYSTEM;
320 #elif defined(AFS_XBSD_ENV)
321     curproc->p_flag |= P_SYSTEM;
322 #elif defined(AFS_SGI_ENV)
323     vrelvm();
324 #endif
325
326     AFS_STATCNT(osi_Invisible);
327 }
328
329
330 #if !defined(AFS_LINUX20_ENV) && !defined(AFS_FBSD_ENV)
331 /* set the real time */
332 void afs_osi_SetTime(osi_timeval_t *atv)
333 {
334 #if defined(AFS_AIX32_ENV)
335     struct timestruc_t t;
336
337     t.tv_sec  = atv->tv_sec;
338     t.tv_nsec = atv->tv_usec * 1000;
339     ksettimer(&t);              /*  Was -> settimer(TIMEOFDAY, &t); */
340 #elif defined(AFS_SUN55_ENV)
341     stime(atv->tv_sec);
342 #elif defined(AFS_SUN5_ENV)
343     /*
344      * To get more than second resolution we can use adjtime. The problem
345      * is that the usecs from the server are wrong (by now) so it isn't
346      * worth complicating the following code.
347      */
348     struct stimea {
349         time_t time;
350     } sta;
351
352     sta.time = atv->tv_sec;
353
354     stime(&sta, NULL);
355 #elif defined(AFS_SGI_ENV)
356     struct stimea {
357         sysarg_t time;
358     } sta;
359
360     AFS_GUNLOCK();
361     sta.time = atv->tv_sec;
362     stime(&sta);
363     AFS_GLOCK();
364 #elif defined(AFS_DARWIN_ENV)
365     AFS_GUNLOCK();
366     setthetime(atv);
367     AFS_GLOCK();
368 #else
369     /* stolen from kern_time.c */
370 #ifndef AFS_AUX_ENV
371     boottime.tv_sec += atv->tv_sec - time.tv_sec;
372 #endif
373 #ifdef AFS_HPUX_ENV
374     {
375 #if !defined(AFS_HPUX1122_ENV)
376  /* drop the setting of the clock for now. spl7 is not
377   * known on hpux11.22
378   */
379         register ulong_t s;
380         struct timeval t;
381         t.tv_sec = atv->tv_sec;
382         t.tv_usec = atv->tv_usec;
383         s = spl7(); time = t; (void) splx(s);
384         resettodr(atv);
385 #endif
386     }
387 #else
388     {
389         register int s;
390         s = splclock(); time = *atv; (void) splx(s);
391     }
392     resettodr();
393 #endif
394 #ifdef  AFS_AUX_ENV
395     logtchg(atv->tv_sec);
396 #endif
397 #endif  /* AFS_DARWIN_ENV */
398     AFS_STATCNT(osi_SetTime);
399 }
400 #endif /* AFS_LINUX20_ENV */
401
402
403 void *afs_osi_Alloc(size_t x)
404 {
405     register struct osimem *tm = NULL;
406     register int size;
407
408     AFS_STATCNT(osi_Alloc);
409     /* 0-length allocs may return NULL ptr from AFS_KALLOC, so we special-case
410        things so that NULL returned iff an error occurred */
411     if (x == 0) return &memZero;
412
413     AFS_STATS(afs_stats_cmperf.OutStandingAllocs++);
414     AFS_STATS(afs_stats_cmperf.OutStandingMemUsage += x);
415 #ifdef AFS_LINUX20_ENV
416     return osi_linux_alloc(x, 1);
417 #else
418     size = x;
419     tm = (struct osimem *) AFS_KALLOC(size);
420 #ifdef  AFS_SUN_ENV
421     if (!tm)
422         osi_Panic("osi_Alloc: Couldn't allocate %d bytes; out of memory!\n",
423                   size);
424 #endif
425     return (void *) tm;
426 #endif
427 }
428
429 #if     defined(AFS_SUN_ENV) || defined(AFS_SGI_ENV)
430
431 void *afs_osi_Alloc_NoSleep(size_t x)
432 {
433     register struct osimem *tm;
434     register int size;
435
436     AFS_STATCNT(osi_Alloc);
437     /* 0-length allocs may return NULL ptr from AFS_KALLOC, so we special-case
438        things so that NULL returned iff an error occurred */
439     if (x == 0) return &memZero;
440
441     size = x;
442     AFS_STATS(afs_stats_cmperf.OutStandingAllocs++);
443     AFS_STATS(afs_stats_cmperf.OutStandingMemUsage += x);
444     tm = (struct osimem *) AFS_KALLOC_NOSLEEP(size);
445     return (void *) tm;
446 }
447
448 #endif  /* SUN || SGI */
449
450 void afs_osi_Free(void *x, size_t asize)
451 {
452     AFS_STATCNT(osi_Free);
453     if (x == &memZero) return;  /* check for putting memZero back */
454
455     AFS_STATS(afs_stats_cmperf.OutStandingAllocs--);
456     AFS_STATS(afs_stats_cmperf.OutStandingMemUsage -= asize);
457 #if defined(AFS_LINUX20_ENV)
458     osi_linux_free(x);
459 #else
460     AFS_KFREE((struct osimem *)x, asize);
461 #endif
462 }
463
464 void afs_osi_FreeStr(char *x)
465 {
466     afs_osi_Free(x, strlen(x) + 1);
467 }
468
469 /* ? is it moderately likely that there are dirty VM pages associated with
470  * this vnode?
471  *
472  *  Prereqs:  avc must be write-locked
473  *
474  *  System Dependencies:  - *must* support each type of system for which
475  *                          memory mapped files are supported, even if all
476  *                          it does is return TRUE;
477  *
478  * NB:  this routine should err on the side of caution for ProcessFS to work
479  *      correctly (or at least, not to introduce worse bugs than already exist)
480  */
481 #ifdef  notdef
482 int osi_VMDirty_p(struct vcache *avc)
483 {
484     int dirtyPages;
485
486     if (avc->execsOrWriters <= 0)
487         return 0;         /* can't be many dirty pages here, I guess */
488
489 #if defined (AFS_AIX32_ENV)
490 #ifdef  notdef
491     /* because of the level of hardware involvment with VM and all the
492      * warnings about "This routine must be called at VMM interrupt
493      * level", I thought it would be safest to disable interrupts while
494      * looking at the software page fault table.  */
495
496     /* convert vm handle into index into array:  I think that stoinio is
497      * always zero...  Look into this XXX  */
498 #define VMHASH(handle) ( \
499                         ( ((handle) & ~vmker.stoinio)  \
500                          ^ ((((handle) & ~vmker.stoinio) & vmker.stoimask) << vmker.stoihash) \
501                          ) & 0x000fffff)
502
503     if (avc->segid) {
504         unsigned int pagef, pri, index, next;
505
506         index = VMHASH(avc->segid);
507         if (scb_valid(index)) {  /* could almost be an ASSERT */
508
509             pri = disable_ints();
510             for (pagef = scb_sidlist(index); pagef >= 0; pagef = next) {
511                 next = pft_sidfwd(pagef);
512                 if (pft_modbit(pagef)) {  /* has page frame been modified? */
513                     enable_ints(pri);
514                     return 1;
515                 }
516             }
517             enable_ints(pri);
518         }
519     }
520 #undef VMHASH
521 #endif
522 #endif /* AFS_AIX32_ENV */
523
524 #if defined (AFS_SUN_ENV)
525     if (avc->states & CMAPPED) {
526         struct page * pg;
527         for (pg = avc->v.v_s.v_Pages ; pg ; pg = pg->p_vpnext) {
528             if (pg->p_mod) {
529                 return 1;
530             }
531         }
532     }
533 #endif
534     return 0;
535 }
536 #endif /* notdef */
537
538
539 /*
540  * Solaris osi_ReleaseVM should not drop and re-obtain the vcache entry lock.
541  * This leads to bad races when osi_ReleaseVM() is called from
542  * afs_InvalidateAllSegments().
543
544  * We can do this because Solaris osi_VM_Truncate() doesn't care whether the
545  * vcache entry lock is held or not.
546  *
547  * For other platforms, in some cases osi_VM_Truncate() doesn't care, but
548  * there may be cases where it does care.  If so, it would be good to fix
549  * them so they don't care.  Until then, we assume the worst.
550  *
551  * Locking:  the vcache entry lock is held.  It is dropped and re-obtained.
552  */
553 void osi_ReleaseVM(struct vcache *avc, struct AFS_UCRED *acred)
554 {
555 #ifdef  AFS_SUN5_ENV
556     AFS_GUNLOCK();
557     osi_VM_Truncate(avc, 0, acred);
558     AFS_GLOCK();
559 #else
560     ReleaseWriteLock(&avc->lock);
561     AFS_GUNLOCK();
562     osi_VM_Truncate(avc, 0, acred);
563     AFS_GLOCK();
564     ObtainWriteLock(&avc->lock, 80);
565 #endif
566 }
567
568
569 void shutdown_osi(void)
570 {
571     AFS_STATCNT(shutdown_osi);
572     if (afs_cold_shutdown) {
573         LOCK_INIT(&afs_ftf, "afs_ftf");
574     }
575 }
576
577 #ifndef AFS_OBSD_ENV
578 int afs_osi_suser(void *credp)
579 {
580 #if defined(AFS_SUN5_ENV)
581     return afs_suser(credp);
582 #else
583     return afs_suser();
584 #endif
585 }
586 #endif
587
588 #if AFS_GCPAGS
589
590 /* afs_osi_TraverseProcTable() - Walk through the systems process
591  * table, calling afs_GCPAGs_perproc_func() for each process.
592  */
593
594 #if defined(AFS_SUN5_ENV)
595 void afs_osi_TraverseProcTable(void)
596 {
597     struct proc *prp;
598     for (prp = practive; prp != NULL; prp = prp->p_next) {
599         afs_GCPAGs_perproc_func(prp);
600     }
601 }
602 #endif
603
604 #if defined(AFS_HPUX_ENV)
605
606 /*
607  * NOTE: h/proc_private.h gives the process table locking rules
608  * It indicates that access to p_cred must be protected by
609  * mp_mtproc_lock(p);
610  * mp_mtproc_unlock(p);
611  *
612  * The code in sys/pm_prot.c uses pcred_lock() to protect access to
613  * the process creds, and uses mp_mtproc_lock() only for audit-related
614  * changes.  To be safe, we use both.
615  */
616
617 void afs_osi_TraverseProcTable(void)
618 {
619     register proc_t *p;
620     int endchain = 0;
621
622     MP_SPINLOCK(activeproc_lock);
623     MP_SPINLOCK(sched_lock);
624     pcred_lock();
625
626     /*
627      * Instead of iterating through all of proc[], traverse only
628      * the list of active processes.  As an example of this,
629      * see foreach_process() in sys/vm_sched.c.
630      *
631      * We hold the locks for the entire scan in order to get a
632      * consistent view of the current set of creds.
633      */
634
635     for(p = proc; endchain == 0; p = &proc[p->p_fandx]) {
636         if (p->p_fandx == 0) {
637             endchain = 1;
638         }
639
640         if (system_proc(p))
641             continue;
642
643         mp_mtproc_lock(p);
644         afs_GCPAGs_perproc_func(p);
645         mp_mtproc_unlock(p);
646     }
647
648     pcred_unlock();
649     MP_SPINUNLOCK(sched_lock);
650     MP_SPINUNLOCK(activeproc_lock);
651 }
652 #endif
653
654 #if defined(AFS_SGI_ENV)
655
656 #ifdef AFS_SGI65_ENV
657 /* TODO: Fix this later. */
658 static int SGI_ProcScanFunc(void *p, void *arg, int mode)
659 {
660     return 0;
661 }
662 #else   /* AFS_SGI65_ENV */
663 static int SGI_ProcScanFunc(proc_t *p, void *arg, int mode)
664 {
665     afs_int32 (*perproc_func)(struct proc *) = arg;
666     int code=0;
667     /* we pass in the function pointer for arg,
668      * mode ==0 for startup call, ==1 for each valid proc,
669      * and ==2 for terminate call.
670      */
671     if(mode == 1) {
672         code = perproc_func(p);
673     }
674     return code;
675 }
676 #endif  /* AFS_SGI65_ENV */
677
678 void afs_osi_TraverseProcTable(void)
679 {
680     procscan(SGI_ProcScanFunc, afs_GCPAGs_perproc_func);
681 }
682 #endif  /* AFS_SGI_ENV */
683
684 #if defined(AFS_AIX_ENV)
685 #ifdef AFS_AIX51_ENV
686 #define max_proc v.ve_proc
687 #endif
688 void afs_osi_TraverseProcTable(void)
689 {
690     struct proc *p;
691     int i;
692
693     /*
694      * For binary compatibility, on AIX we need to be careful to use the
695      * proper size of a struct proc, even if it is different from what
696      * we were compiled with.
697      */
698     if (!afs_gcpags_procsize)
699         return;
700
701 #ifndef AFS_AIX51_ENV
702     simple_lock(&proc_tbl_lock);
703 #endif
704     for (p = (struct proc *)v.vb_proc, i = 0;
705          p < max_proc;
706          p = (struct proc *)((char *)p + afs_gcpags_procsize), i++) {
707
708 #ifdef AFS_AIX51_ENV
709         if (p->p_pvprocp->pv_stat == SNONE)
710             continue;
711         if (p->p_pvprocp->pv_stat == SIDL)
712             continue;
713         if (p->p_pvprocp->pv_stat == SEXIT)
714             continue;
715 #else
716         if (p->p_stat == SNONE)
717             continue;
718         if (p->p_stat == SIDL)
719             continue;
720         if (p->p_stat == SEXIT)
721             continue;
722 #endif
723
724         /* sanity check */
725
726         if (PROCMASK(p->p_pid) != i) {
727             afs_gcpags = AFS_GCPAGS_EPIDCHECK;
728             break;
729         }
730
731         /* sanity check */
732
733         if ((p->p_nice < P_NICE_MIN) || (P_NICE_MAX < p->p_nice)) {
734             afs_gcpags = AFS_GCPAGS_ENICECHECK;
735             break;
736         }
737
738         afs_GCPAGs_perproc_func(p);
739     }
740 #ifndef AFS_AIX51_ENV
741     simple_unlock(&proc_tbl_lock);
742 #endif
743 }
744 #endif
745
746 #if defined(AFS_OSF_ENV)
747 void afs_osi_TraverseProcTable(void)
748 {
749     struct pid_entry *pe;
750 #ifdef AFS_DUX50_ENV
751 #define pidNPID (pidtab + npid)
752 #define PID_LOCK()
753 #define PID_UNLOCK()
754 #endif
755     PID_LOCK();
756     for (pe = pidtab; pe < pidNPID; ++pe) {
757        if (pe->pe_proc != PROC_NULL)
758           afs_GCPAGs_perproc_func(pe->pe_proc);
759     }
760     PID_UNLOCK();
761 }
762 #endif
763
764 #if defined(AFS_DARWIN_ENV) || defined(AFS_FBSD_ENV)
765 void afs_osi_TraverseProcTable(void)
766 {
767     struct proc *p;
768     LIST_FOREACH(p, &allproc, p_list) {
769         if (p->p_stat == SIDL)
770             continue;
771         if (p->p_stat == SZOMB)
772             continue;
773         if (p->p_flag & P_SYSTEM)
774             continue;
775           afs_GCPAGs_perproc_func(p);
776     }
777 }
778 #endif
779
780 #if defined(AFS_LINUX22_ENV)
781 void afs_osi_TraverseProcTable()
782 {
783     struct task_struct *p;
784
785 #ifdef EXPORTED_TASKLIST_LOCK
786     read_lock(&tasklist_lock);
787 #endif
788 #ifdef DEFINED_FOR_EACH_PROCESS
789     for_each_process(p) if (p->pid) {
790         if (p->state & TASK_ZOMBIE)
791             continue;
792         afs_GCPAGs_perproc_func(p);
793     }
794 #else
795     for_each_task(p) if (p->pid) {
796         if (p->state & TASK_ZOMBIE)
797             continue;
798         afs_GCPAGs_perproc_func(p);
799     }
800 #endif
801 #ifdef EXPORTED_TASKLIST_LOCK
802     read_unlock(&tasklist_lock);
803 #endif
804 }
805 #endif
806
807 /* return a pointer (sometimes a static copy ) to the cred for a
808  * given AFS_PROC.
809  * subsequent calls may overwrite the previously returned value.
810  */
811
812 #if defined(AFS_SGI65_ENV)
813 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *p)
814 {
815     return NULL;
816 }
817 #elif defined(AFS_HPUX_ENV)
818 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *p)
819 {
820     if (!p)
821         return;
822
823     /*
824      * Cannot use afs_warnuser() here, as the code path
825      * eventually wants to grab sched_lock, which is
826      * already held here
827      */
828
829     return p_cred(p);
830 }
831 #elif defined(AFS_AIX_ENV)
832
833 /* GLOBAL DECLARATIONS */
834
835 /*
836  * LOCKS: the caller must do
837  *  simple_lock(&proc_tbl_lock);
838  *  simple_unlock(&proc_tbl_lock);
839  * around calls to this function.
840  */
841
842 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *pproc)
843 {
844     struct AFS_UCRED *pcred = 0;
845
846     /*
847      * pointer to process user structure valid in *our*
848      * address space
849      *
850      * The user structure for a process is stored in the user
851      * address space (as distinct from the kernel address
852      * space), and so to refer to the user structure of a
853      * different process we must employ special measures.
854      *
855      * I followed the example used in the AIX getproc() system
856      * call in bos/kernel/proc/getproc.c
857      */
858     struct user *xmem_userp;
859
860     struct xmem dp;             /* ptr to xmem descriptor */
861     int xm;                     /* xmem result */
862
863     if (!pproc) {
864         return pcred;
865     }
866
867     /*
868      * The process private segment in which the user
869      * area is located may disappear. We need to increment
870      * its use count. Therefore we
871      *    - get the proc_tbl_lock to hold the segment.
872      *    - get the p_lock to lockout vm_cleardata.
873      *    - vm_att to load the segment register (no check)
874      *    - xmattach to bump its use count.
875      *    - release the p_lock.
876      *    - release the proc_tbl_lock.
877      *    - do whatever we need.
878      *    - xmdetach to decrement the use count.
879      *    - vm_det to free the segment register (no check)
880      */
881
882     xmem_userp = NULL;
883     xm = XMEM_FAIL;
884     /* simple_lock(&proc_tbl_lock); */
885 #ifdef __64BIT__
886     if (pproc->p_adspace != vm_handle(NULLSEGID, (int32long64_t) 0)) {
887 #else
888     if (pproc->p_adspace != NULLSEGVAL) {
889 #endif
890
891 #ifdef AFS_AIX51_ENV
892         simple_lock(&pproc->p_pvprocp->pv_lock);
893 #else
894         simple_lock(&pproc->p_lock);
895 #endif
896
897         if (pproc->p_threadcount &&
898 #ifdef AFS_AIX51_ENV
899             pproc->p_pvprocp->pv_threadlist) {
900 #else
901             pproc->p_threadlist) {
902 #endif
903
904             /*
905              * arbitrarily pick the first thread in pproc
906              */
907             struct thread *pproc_thread =
908 #ifdef AFS_AIX51_ENV
909                 pproc->p_pvprocp->pv_threadlist;
910 #else
911                 pproc->p_threadlist;
912 #endif
913
914             /*
915              * location of 'struct user' in pproc's
916              * address space
917              */
918             struct user *pproc_userp =
919                 pproc_thread->t_userp;
920
921             /*
922              * create a pointer valid in my own address space
923              */
924
925             xmem_userp =
926                 (struct user *)vm_att(pproc->p_adspace,
927                                       pproc_userp);
928
929             dp.aspace_id = XMEM_INVAL;
930             xm = xmattach(xmem_userp,
931                           sizeof(*xmem_userp),
932                           &dp, SYS_ADSPACE);
933         }
934
935 #ifdef AFS_AIX51_ENV
936         simple_unlock(&pproc->p_pvprocp->pv_lock);
937 #else
938         simple_unlock(&pproc->p_lock);
939 #endif
940     }
941     /* simple_unlock(&proc_tbl_lock); */
942     if (xm == XMEM_SUCC) {
943
944         static struct AFS_UCRED cred;
945
946         /*
947          * What locking should we use to protect access to the user
948          * area?  If needed also change the code in AIX/osi_groups.c.
949          */
950
951         /* copy cred to local address space */
952         cred = *xmem_userp->U_cred;
953         pcred = &cred;
954
955         xmdetach(&dp);
956     }
957     if (xmem_userp) {
958         vm_det((void *)xmem_userp);
959     }
960
961     return pcred;
962 }
963
964 #elif defined(AFS_OSF_ENV)
965 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *pr)
966 {
967     struct AFS_UCRED *rv=NULL;
968
969     if(pr == NULL) {
970        return NULL;
971     }
972
973     if((pr->p_stat == SSLEEP) ||
974        (pr->p_stat == SRUN) ||
975        (pr->p_stat == SSTOP))
976        rv = pr->p_rcred;
977
978     return rv;
979 }
980 #elif defined(AFS_DARWIN_ENV) || defined(AFS_FBSD_ENV)
981 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *pr)
982 {
983     struct AFS_UCRED *rv=NULL;
984     static struct AFS_UCRED cr;
985
986     if(pr == NULL) {
987        return NULL;
988     }
989
990     if((pr->p_stat == SSLEEP) ||
991        (pr->p_stat == SRUN) ||
992        (pr->p_stat == SSTOP)) {
993        pcred_readlock(pr);
994        cr.cr_ref=1;
995        cr.cr_uid=pr->p_cred->pc_ucred->cr_uid;
996        cr.cr_ngroups=pr->p_cred->pc_ucred->cr_ngroups;
997        memcpy(cr.cr_groups, pr->p_cred->pc_ucred->cr_groups, NGROUPS *
998              sizeof(gid_t));
999        pcred_unlock(pr);
1000        rv = &cr;
1001     }
1002
1003     return rv;
1004 }
1005 #elif defined(AFS_LINUX22_ENV)
1006 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *pr)
1007 {
1008     struct AFS_UCRED *rv=NULL;
1009     static struct AFS_UCRED cr;
1010
1011     if(pr == NULL) {
1012        return NULL;
1013     }
1014
1015     if ((pr->state == TASK_RUNNING) ||
1016         (pr->state == TASK_INTERRUPTIBLE) ||
1017         (pr->state == TASK_UNINTERRUPTIBLE) ||
1018         (pr->state == TASK_STOPPED)) {
1019         cr.cr_ref=1;
1020         cr.cr_uid=pr->uid;
1021         cr.cr_ngroups=pr->ngroups;
1022         memcpy(cr.cr_groups, pr->groups, NGROUPS * sizeof(gid_t));
1023         rv = &cr;
1024     }
1025
1026     return rv;
1027 }
1028 #else
1029 const struct AFS_UCRED *afs_osi_proc2cred(AFS_PROC *pr)
1030 {
1031     struct AFS_UCRED *rv=NULL;
1032
1033     if(pr == NULL) {
1034        return NULL;
1035     }
1036     rv = pr->p_cred;
1037
1038     return rv;
1039 }
1040 #endif
1041
1042 #endif  /* AFS_GCPAGS */