afs: Avoid panics on failed return from afs_CFileOpen
[openafs.git] / src / afs / afs_buffer.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  *
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13
14 #include "afs/sysincludes.h"
15 #include "afsincludes.h"
16 #if !defined(UKERNEL)
17 #if !defined(AFS_LINUX26_ENV)
18 # include "h/param.h"
19 #endif
20 #include "h/types.h"
21 #include "h/time.h"
22 #if     defined(AFS_AIX31_ENV)
23 #include "h/limits.h"
24 #endif
25 #if     !defined(AFS_AIX_ENV) && !defined(AFS_SUN5_ENV) && !defined(AFS_SGI_ENV) && !defined(AFS_LINUX20_ENV)
26 #include "h/kernel.h"           /* Doesn't needed, so it should go */
27 #endif
28 #endif /* !defined(UKERNEL) */
29
30 #include "afs/afs_osi.h"
31 #include "afsint.h"
32 #include "afs/lock.h"
33
34 #if !defined(UKERNEL) && !defined(AFS_LINUX20_ENV)
35 #include "h/buf.h"
36 #endif /* !defined(UKERNEL) */
37
38 #include "afs/stds.h"
39 #include "afs/volerrors.h"
40 #include "afs/exporter.h"
41 #include "afs/prs_fs.h"
42 #include "afs/afs_chunkops.h"
43 #include "afs/dir.h"
44
45 #include "afs/afs_stats.h"
46 #include "afs/afs.h"
47
48 #ifndef BUF_TIME_MAX
49 #define BUF_TIME_MAX    0x7fffffff
50 #endif
51 #define NPB 8                   /* must be a pwer of 2 */
52 static int afs_max_buffers;     /* should be an integral multiple of NPB */
53
54 /* page size */
55 #define AFS_BUFFER_PAGESIZE 2048
56 /* log page size */
57 #define LOGPS 11
58 /* If you change any of this PH stuff, make sure you don't break DZap() */
59 /* use last two bits for page */
60 #define PHPAGEMASK 3
61 /* use next five bits for fid */
62 #define PHFIDMASK 124
63 /* page hash table size - this is pretty intertwined with pHash */
64 #define PHSIZE (PHPAGEMASK + PHFIDMASK + 1)
65 /* the pHash macro */
66 #define pHash(fid,page) ((((afs_int32)(fid)) & PHFIDMASK) \
67                          | (page & PHPAGEMASK))
68
69 #ifdef  dirty
70 #undef dirty                    /* XXX */
71 #endif
72
73 static struct buffer *Buffers = 0;
74 static char *BufferData;
75
76 #ifdef  AFS_AIX_ENV
77 extern struct buf *geteblk();
78 #endif
79 #ifdef AFS_FBSD_ENV
80 #define timecounter afs_timecounter
81 #endif
82
83 /* A note on locking in 'struct buffer'
84  *
85  * afs_bufferLock protects the hash chain, and the 'lockers' field where that
86  * has a zero value. It must be held whenever lockers is incremented from zero.
87  *
88  * The individual buffer lock protects the contents of the structure, including
89  * the lockers field.
90  *
91  * For safety: afs_bufferLock and the individual buffer lock must be held
92  * when obtaining a reference on a structure. Only the individual buffer lock
93  * need be held when releasing a reference.
94  *
95  * The locking hierarchy is afs_bufferLock-> buffer.lock
96  *
97  */
98
99 static afs_lock_t afs_bufferLock;
100 static struct buffer *phTable[PHSIZE];  /* page hash table */
101 static int nbuffers;
102 static afs_int32 timecounter;
103
104 /* Prototypes for static routines */
105 static struct buffer *afs_newslot(struct dcache *adc, afs_int32 apage,
106                                   struct buffer *lp);
107
108 static int dinit_flag = 0;
109 void
110 DInit(int abuffers)
111 {
112     /* Initialize the venus buffer system. */
113     int i;
114     struct buffer *tb;
115
116     AFS_STATCNT(DInit);
117     if (dinit_flag)
118         return;
119     dinit_flag = 1;
120     /* round up to next multiple of NPB, since we allocate multiple pages per chunk */
121     abuffers = ((abuffers - 1) | (NPB - 1)) + 1;
122     afs_max_buffers = abuffers << 2;            /* possibly grow up to 4 times as big */
123     LOCK_INIT(&afs_bufferLock, "afs_bufferLock");
124     Buffers = afs_osi_Alloc(afs_max_buffers * sizeof(struct buffer));
125     osi_Assert(Buffers != NULL);
126     timecounter = 1;
127     afs_stats_cmperf.bufAlloced = nbuffers = abuffers;
128     for (i = 0; i < PHSIZE; i++)
129         phTable[i] = 0;
130     for (i = 0; i < abuffers; i++) {
131         if ((i & (NPB - 1)) == 0) {
132             /* time to allocate a fresh buffer */
133             BufferData = afs_osi_Alloc(AFS_BUFFER_PAGESIZE * NPB);
134             osi_Assert(BufferData != NULL);
135         }
136         /* Fill in each buffer with an empty indication. */
137         tb = &Buffers[i];
138         tb->fid = NULLIDX;
139         afs_reset_inode(&tb->inode);
140         tb->accesstime = 0;
141         tb->lockers = 0;
142         tb->data = &BufferData[AFS_BUFFER_PAGESIZE * (i & (NPB - 1))];
143         tb->hashIndex = 0;
144         tb->dirty = 0;
145         AFS_RWLOCK_INIT(&tb->lock, "buffer lock");
146     }
147     return;
148 }
149
150 int
151 DRead(struct dcache *adc, int page, struct DirBuffer *entry)
152 {
153     /* Read a page from the disk. */
154     struct buffer *tb, *tb2;
155     struct osi_file *tfile;
156     int code;
157
158     AFS_STATCNT(DRead);
159
160     memset(entry, 0, sizeof(struct DirBuffer));
161
162     ObtainWriteLock(&afs_bufferLock, 256);
163
164 #define bufmatch(tb) (tb->page == page && tb->fid == adc->index)
165 #define buf_Front(head,parent,p) {(parent)->hashNext = (p)->hashNext; (p)->hashNext= *(head);*(head)=(p);}
166
167     /* this apparently-complicated-looking code is simply an example of
168      * a little bit of loop unrolling, and is a standard linked-list
169      * traversal trick. It saves a few assignments at the the expense
170      * of larger code size.  This could be simplified by better use of
171      * macros.
172      */
173     if ((tb = phTable[pHash(adc->index, page)])) {
174         if (bufmatch(tb)) {
175             ObtainWriteLock(&tb->lock, 257);
176             tb->lockers++;
177             ReleaseWriteLock(&afs_bufferLock);
178             tb->accesstime = timecounter++;
179             AFS_STATS(afs_stats_cmperf.bufHits++);
180             ReleaseWriteLock(&tb->lock);
181             entry->buffer = tb;
182             entry->data = tb->data;
183             return 0;
184         } else {
185             struct buffer **bufhead;
186             bufhead = &(phTable[pHash(adc->index, page)]);
187             while ((tb2 = tb->hashNext)) {
188                 if (bufmatch(tb2)) {
189                     buf_Front(bufhead, tb, tb2);
190                     ObtainWriteLock(&tb2->lock, 258);
191                     tb2->lockers++;
192                     ReleaseWriteLock(&afs_bufferLock);
193                     tb2->accesstime = timecounter++;
194                     AFS_STATS(afs_stats_cmperf.bufHits++);
195                     ReleaseWriteLock(&tb2->lock);
196                     entry->buffer = tb2;
197                     entry->data = tb2->data;
198                     return 0;
199                 }
200                 if ((tb = tb2->hashNext)) {
201                     if (bufmatch(tb)) {
202                         buf_Front(bufhead, tb2, tb);
203                         ObtainWriteLock(&tb->lock, 259);
204                         tb->lockers++;
205                         ReleaseWriteLock(&afs_bufferLock);
206                         tb->accesstime = timecounter++;
207                         AFS_STATS(afs_stats_cmperf.bufHits++);
208                         ReleaseWriteLock(&tb->lock);
209                         entry->buffer = tb;
210                         entry->data = tb->data;
211                         return 0;
212                     }
213                 } else
214                     break;
215             }
216         }
217     } else
218         tb2 = NULL;
219
220     AFS_STATS(afs_stats_cmperf.bufMisses++);
221     /* can't find it */
222     /* The last thing we looked at was either tb or tb2 (or nothing). That
223      * is at least the oldest buffer on one particular hash chain, so it's
224      * a pretty good place to start looking for the truly oldest buffer.
225      */
226     tb = afs_newslot(adc, page, (tb ? tb : tb2));
227     if (!tb) {
228         ReleaseWriteLock(&afs_bufferLock);
229         return EIO;
230     }
231     ObtainWriteLock(&tb->lock, 260);
232     tb->lockers++;
233     ReleaseWriteLock(&afs_bufferLock);
234     code = 0;
235     if (adc->f.chunk == 0 && adc->f.chunkBytes == 0) {
236         /* The directory blob is empty, apparently. This is not a valid dir
237          * blob, so throw an error. */
238         code = EIO;
239         goto error;
240     } else if (page * AFS_BUFFER_PAGESIZE >= adc->f.chunkBytes) {
241         code = ENOENT; /* past the end */
242         goto error;
243     }
244
245     tfile = afs_CFileOpen(&adc->f.inode);
246     if (!tfile) {
247         code = EIO;
248         goto error;
249     }
250     code =
251         afs_CFileRead(tfile, tb->page * AFS_BUFFER_PAGESIZE, tb->data,
252                       AFS_BUFFER_PAGESIZE);
253     afs_CFileClose(tfile);
254     if (code < AFS_BUFFER_PAGESIZE) {
255         code = EIO;
256         goto error;
257     }
258     /* Note that findslot sets the page field in the buffer equal to
259      * what it is searching for. */
260     ReleaseWriteLock(&tb->lock);
261     entry->buffer = tb;
262     entry->data = tb->data;
263     return 0;
264
265  error:
266     tb->fid = NULLIDX;
267     afs_reset_inode(&tb->inode);
268     tb->lockers--;
269     ReleaseWriteLock(&tb->lock);
270     return code;
271 }
272
273 static void
274 FixupBucket(struct buffer *ap)
275 {
276     struct buffer **lp, *tp;
277     int i;
278     /* first try to get it out of its current hash bucket, in which it
279      * might not be */
280     AFS_STATCNT(FixupBucket);
281     i = ap->hashIndex;
282     lp = &phTable[i];
283     for (tp = *lp; tp; tp = tp->hashNext) {
284         if (tp == ap) {
285             *lp = tp->hashNext;
286             break;
287         }
288         lp = &tp->hashNext;
289     }
290     /* now figure the new hash bucket */
291     i = pHash(ap->fid, ap->page);
292     ap->hashIndex = i;          /* remember where we are for deletion */
293     ap->hashNext = phTable[i];  /* add us to the list */
294     phTable[i] = ap;            /* at the front, since it's LRU */
295 }
296
297 /* lp is pointer to a fairly-old buffer */
298 static struct buffer *
299 afs_newslot(struct dcache *adc, afs_int32 apage, struct buffer *lp)
300 {
301     /* Find a usable buffer slot */
302     afs_int32 i;
303     afs_int32 lt = 0;
304     struct buffer *tp;
305     struct osi_file *tfile;
306
307     AFS_STATCNT(afs_newslot);
308     /* we take a pointer here to a buffer which was at the end of an
309      * LRU hash chain.  Odds are, it's one of the older buffers, not
310      * one of the newer.  Having an older buffer to start with may
311      * permit us to avoid a few of the assignments in the "typical
312      * case" for loop below.
313      */
314     if (lp && (lp->lockers == 0)) {
315         lt = lp->accesstime;
316     } else {
317         lp = NULL;
318     }
319
320     /* timecounter might have wrapped, if machine is very very busy
321      * and stays up for a long time.  Timecounter mustn't wrap twice
322      * (positive->negative->positive) before calling newslot, but that
323      * would require 2 billion consecutive cache hits... Anyway, the
324      * penalty is only that the cache replacement policy will be
325      * almost MRU for the next ~2 billion DReads...  newslot doesn't
326      * get called nearly as often as DRead, so in order to avoid the
327      * performance penalty of using the hypers, it's worth doing the
328      * extra check here every time.  It's probably cheaper than doing
329      * hcmp, anyway.  There is a little performance hit resulting from
330      * resetting all the access times to 0, but it only happens once
331      * every month or so, and the access times will rapidly sort
332      * themselves back out after just a few more DReads.
333      */
334     if (timecounter < 0) {
335         timecounter = 1;
336         tp = Buffers;
337         for (i = 0; i < nbuffers; i++, tp++) {
338             tp->accesstime = 0;
339             if (!lp && !tp->lockers)    /* one is as good as the rest, I guess */
340                 lp = tp;
341         }
342     } else {
343         /* this is the typical case */
344         tp = Buffers;
345         for (i = 0; i < nbuffers; i++, tp++) {
346             if (tp->lockers == 0) {
347                 if (!lp || tp->accesstime < lt) {
348                     lp = tp;
349                     lt = tp->accesstime;
350                 }
351             }
352         }
353     }
354
355     if (lp == 0) {
356         /* No unlocked buffers. If still possible, allocate a new increment */
357         if (nbuffers + NPB > afs_max_buffers) {
358             /* There are no unlocked buffers -- this used to panic, but that
359              * seems extreme.  To the best of my knowledge, all the callers
360              * of DRead are prepared to handle a zero return.  Some of them
361              * just panic directly, but not all of them. */
362             afs_warn("afs: all buffers locked\n");
363             return 0;
364         }
365
366         BufferData = afs_osi_Alloc(AFS_BUFFER_PAGESIZE * NPB);
367         osi_Assert(BufferData != NULL);
368         for (i = 0; i< NPB; i++) {
369             /* Fill in each buffer with an empty indication. */
370             tp = &Buffers[i + nbuffers];
371             tp->fid = NULLIDX;
372             afs_reset_inode(&tp->inode);
373             tp->accesstime = 0;
374             tp->lockers = 0;
375             tp->data = &BufferData[AFS_BUFFER_PAGESIZE * i];
376             tp->hashIndex = 0;
377             tp->dirty = 0;
378             AFS_RWLOCK_INIT(&tp->lock, "buffer lock");
379         }
380         lp = &Buffers[nbuffers];
381         nbuffers += NPB;
382     }
383
384     if (lp->dirty) {
385         /* see DFlush for rationale for not getting and locking the dcache */
386         tfile = afs_CFileOpen(&lp->inode);
387         if (!tfile)
388             return NULL;    /* Callers will flag as EIO */
389
390         afs_CFileWrite(tfile, lp->page * AFS_BUFFER_PAGESIZE, lp->data,
391                        AFS_BUFFER_PAGESIZE);
392         lp->dirty = 0;
393         afs_CFileClose(tfile);
394         AFS_STATS(afs_stats_cmperf.bufFlushDirty++);
395     }
396
397     /* Zero out the data so we don't leak something we shouldn't. */
398     memset(lp->data, 0, AFS_BUFFER_PAGESIZE);
399     /* Now fill in the header. */
400     lp->fid = adc->index;
401     afs_copy_inode(&lp->inode, &adc->f.inode);
402     lp->page = apage;
403     lp->accesstime = timecounter++;
404     FixupBucket(lp);            /* move to the right hash bucket */
405
406     return lp;
407 }
408
409 void
410 DRelease(struct DirBuffer *entry, int flag)
411 {
412     struct buffer *tp;
413
414     AFS_STATCNT(DRelease);
415
416     tp = entry->buffer;
417     if (tp == NULL)
418         return;
419
420     tp = entry->buffer;
421     ObtainWriteLock(&tp->lock, 261);
422     tp->lockers--;
423     if (flag)
424         tp->dirty = 1;
425     ReleaseWriteLock(&tp->lock);
426 }
427
428 int
429 DVOffset(struct DirBuffer *entry)
430 {
431     struct buffer *bp;
432
433     AFS_STATCNT(DVOffset);
434
435     bp = entry->buffer;
436     return AFS_BUFFER_PAGESIZE * bp->page 
437             + (char *)entry->data - (char *)bp->data;
438 }
439
440 /*!
441  * Zap one dcache entry: destroy one FID's buffers.
442  *
443  * 1/1/91 - I've modified the hash function to take the page as well
444  * as the *fid, so that lookup will be a bit faster.  That presents some
445  * difficulties for Zap, which now has to have some knowledge of the nature
446  * of the hash function.  Oh well.  This should use the list traversal
447  * method of DRead...
448  *
449  * \param adc The dcache entry to be zapped.
450  */
451 void
452 DZap(struct dcache *adc)
453 {
454     int i;
455     /* Destroy all buffers pertaining to a particular fid. */
456     struct buffer *tb;
457
458     AFS_STATCNT(DZap);
459     ObtainReadLock(&afs_bufferLock);
460
461     for (i = 0; i <= PHPAGEMASK; i++)
462         for (tb = phTable[pHash(adc->index, i)]; tb; tb = tb->hashNext)
463             if (tb->fid == adc->index) {
464                 ObtainWriteLock(&tb->lock, 262);
465                 tb->fid = NULLIDX;
466                 afs_reset_inode(&tb->inode);
467                 tb->dirty = 0;
468                 ReleaseWriteLock(&tb->lock);
469             }
470     ReleaseReadLock(&afs_bufferLock);
471 }
472
473 static void
474 DFlushBuffer(struct buffer *ab)
475 {
476     struct osi_file *tfile;
477
478     tfile = afs_CFileOpen(&ab->inode);
479     osi_Assert(tfile);
480     afs_CFileWrite(tfile, ab->page * AFS_BUFFER_PAGESIZE,
481                    ab->data, AFS_BUFFER_PAGESIZE);
482     ab->dirty = 0;      /* Clear the dirty flag */
483     afs_CFileClose(tfile);
484 }
485
486 void
487 DFlushDCache(struct dcache *adc)
488 {
489     int i;
490     struct buffer *tb;
491
492     ObtainReadLock(&afs_bufferLock);
493
494     for (i = 0; i <= PHPAGEMASK; i++)
495         for (tb = phTable[pHash(adc->index, i)]; tb; tb = tb->hashNext)
496             if (tb->fid == adc->index) {
497                 ObtainWriteLock(&tb->lock, 701);
498                 tb->lockers++;
499                 ReleaseReadLock(&afs_bufferLock);
500                 if (tb->dirty) {
501                     DFlushBuffer(tb);
502                 }
503                 tb->lockers--;
504                 ReleaseWriteLock(&tb->lock);
505                 ObtainReadLock(&afs_bufferLock);
506             }
507
508     ReleaseReadLock(&afs_bufferLock);
509 }
510
511 int
512 DFlush(void)
513 {
514     /* Flush all the modified buffers. */
515     int i;
516     struct buffer *tb;
517
518     AFS_STATCNT(DFlush);
519     tb = Buffers;
520     ObtainReadLock(&afs_bufferLock);
521     for (i = 0; i < nbuffers; i++, tb++) {
522         if (tb->dirty) {
523             ObtainWriteLock(&tb->lock, 263);
524             tb->lockers++;
525             ReleaseReadLock(&afs_bufferLock);
526             if (tb->dirty) {
527                 /* it seems safe to do this I/O without having the dcache
528                  * locked, since the only things that will update the data in
529                  * a directory are the buffer package, which holds the relevant
530                  * tb->lock while doing the write, or afs_GetDCache, which
531                  * DZap's the directory while holding the dcache lock.
532                  * It is not possible to lock the dcache or even call
533                  * afs_GetDSlot to map the index to the dcache since the dir
534                  * package's caller has some dcache object locked already (so
535                  * we cannot lock afs_xdcache). In addition, we cannot obtain
536                  * a dcache lock while holding the tb->lock of the same file
537                  * since that can deadlock with DRead/DNew */
538                 DFlushBuffer(tb);
539             }
540             tb->lockers--;
541             ReleaseWriteLock(&tb->lock);
542             ObtainReadLock(&afs_bufferLock);
543         }
544     }
545     ReleaseReadLock(&afs_bufferLock);
546
547     return 0;
548 }
549
550 int
551 DNew(struct dcache *adc, int page, struct DirBuffer *entry)
552 {
553     /* Same as read, only do *not* even try to read the page, since it
554      * probably doesn't exist. */
555     struct buffer *tb;
556     AFS_STATCNT(DNew);
557
558     ObtainWriteLock(&afs_bufferLock, 264);
559     if ((tb = afs_newslot(adc, page, NULL)) == 0) {
560         ReleaseWriteLock(&afs_bufferLock);
561         return EIO;
562     }
563     /* extend the chunk, if needed */
564     /* Do it now, not in DFlush or afs_newslot when the data is written out,
565      * since now our caller has adc->lock writelocked, and we can't acquire
566      * that lock (or even map from a fid to a dcache) in afs_newslot or
567      * DFlush due to lock hierarchy issues */
568     if ((page + 1) * AFS_BUFFER_PAGESIZE > adc->f.chunkBytes) {
569         afs_AdjustSize(adc, (page + 1) * AFS_BUFFER_PAGESIZE);
570         osi_Assert(afs_WriteDCache(adc, 1) == 0);
571     }
572     ObtainWriteLock(&tb->lock, 265);
573     tb->lockers++;
574     ReleaseWriteLock(&afs_bufferLock);
575     ReleaseWriteLock(&tb->lock);
576     entry->buffer = tb;
577     entry->data = tb->data;
578
579     return 0;
580 }
581
582 void
583 shutdown_bufferpackage(void)
584 {
585     struct buffer *tp;
586     int i;
587
588     AFS_STATCNT(shutdown_bufferpackage);
589     /* Free all allocated Buffers and associated buffer pages */
590     DFlush();
591
592     dinit_flag = 0;
593     tp = Buffers;
594     for (i = 0; i < nbuffers; i += NPB, tp += NPB) {
595         afs_osi_Free(tp->data, NPB * AFS_BUFFER_PAGESIZE);
596     }
597     afs_osi_Free(Buffers, nbuffers * sizeof(struct buffer));
598     Buffers = NULL;
599     nbuffers = 0;
600     timecounter = 1;
601     for (i = 0; i < PHSIZE; i++)
602         phTable[i] = NULL;
603
604     if (afs_cold_shutdown) {
605         memset(&afs_bufferLock, 0, sizeof(afs_lock_t));
606     }
607 }