LINUX: Return NULL for afs_linux_raw_open error
[openafs.git] / src / afs / afs_buffer.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  *
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13
14 #include "afs/sysincludes.h"
15 #include "afsincludes.h"
16 #if !defined(UKERNEL)
17 #if !defined(AFS_LINUX26_ENV)
18 # include "h/param.h"
19 #endif
20 #include "h/types.h"
21 #include "h/time.h"
22 #if     defined(AFS_AIX31_ENV)
23 #include "h/limits.h"
24 #endif
25 #if     !defined(AFS_AIX_ENV) && !defined(AFS_SUN5_ENV) && !defined(AFS_SGI_ENV) && !defined(AFS_LINUX20_ENV)
26 #include "h/kernel.h"           /* Doesn't needed, so it should go */
27 #endif
28 #endif /* !defined(UKERNEL) */
29
30 #include "afs/afs_osi.h"
31 #include "afsint.h"
32 #include "afs/lock.h"
33
34 #if !defined(UKERNEL) && !defined(AFS_LINUX20_ENV)
35 #include "h/buf.h"
36 #endif /* !defined(UKERNEL) */
37
38 #include "afs/stds.h"
39 #include "afs/volerrors.h"
40 #include "afs/exporter.h"
41 #include "afs/prs_fs.h"
42 #include "afs/afs_chunkops.h"
43 #include "afs/dir.h"
44
45 #include "afs/afs_stats.h"
46 #include "afs/afs.h"
47
48 #ifndef BUF_TIME_MAX
49 #define BUF_TIME_MAX    0x7fffffff
50 #endif
51 #define NPB 8                   /* must be a pwer of 2 */
52 static int afs_max_buffers;     /* should be an integral multiple of NPB */
53
54 /* page size */
55 #define AFS_BUFFER_PAGESIZE 2048
56 /* log page size */
57 #define LOGPS 11
58 /* If you change any of this PH stuff, make sure you don't break DZap() */
59 /* use last two bits for page */
60 #define PHPAGEMASK 3
61 /* use next five bits for fid */
62 #define PHFIDMASK 124
63 /* page hash table size - this is pretty intertwined with pHash */
64 #define PHSIZE (PHPAGEMASK + PHFIDMASK + 1)
65 /* the pHash macro */
66 #define pHash(fid,page) ((((afs_int32)(fid)) & PHFIDMASK) \
67                          | (page & PHPAGEMASK))
68
69 #ifdef  dirty
70 #undef dirty                    /* XXX */
71 #endif
72
73 static struct buffer *Buffers = 0;
74 static char *BufferData;
75
76 #ifdef  AFS_AIX_ENV
77 extern struct buf *geteblk();
78 #endif
79 #ifdef AFS_FBSD_ENV
80 #define timecounter afs_timecounter
81 #endif
82
83 /* A note on locking in 'struct buffer'
84  *
85  * afs_bufferLock protects the hash chain, and the 'lockers' field where that
86  * has a zero value. It must be held whenever lockers is incremented from zero.
87  *
88  * The individual buffer lock protects the contents of the structure, including
89  * the lockers field.
90  *
91  * For safety: afs_bufferLock and the individual buffer lock must be held
92  * when obtaining a reference on a structure. Only the individual buffer lock
93  * need be held when releasing a reference.
94  *
95  * The locking hierarchy is afs_bufferLock-> buffer.lock
96  *
97  */
98
99 static afs_lock_t afs_bufferLock;
100 static struct buffer *phTable[PHSIZE];  /* page hash table */
101 static int nbuffers;
102 static afs_int32 timecounter;
103
104 /* Prototypes for static routines */
105 static struct buffer *afs_newslot(struct dcache *adc, afs_int32 apage,
106                                   struct buffer *lp);
107
108 static int dinit_flag = 0;
109 void
110 DInit(int abuffers)
111 {
112     /* Initialize the venus buffer system. */
113     int i;
114     struct buffer *tb;
115
116     AFS_STATCNT(DInit);
117     if (dinit_flag)
118         return;
119     dinit_flag = 1;
120     /* round up to next multiple of NPB, since we allocate multiple pages per chunk */
121     abuffers = ((abuffers - 1) | (NPB - 1)) + 1;
122     afs_max_buffers = abuffers << 2;            /* possibly grow up to 4 times as big */
123     LOCK_INIT(&afs_bufferLock, "afs_bufferLock");
124     Buffers = afs_osi_Alloc(afs_max_buffers * sizeof(struct buffer));
125     osi_Assert(Buffers != NULL);
126     timecounter = 1;
127     afs_stats_cmperf.bufAlloced = nbuffers = abuffers;
128     for (i = 0; i < PHSIZE; i++)
129         phTable[i] = 0;
130     for (i = 0; i < abuffers; i++) {
131         if ((i & (NPB - 1)) == 0) {
132             /* time to allocate a fresh buffer */
133             BufferData = afs_osi_Alloc(AFS_BUFFER_PAGESIZE * NPB);
134             osi_Assert(BufferData != NULL);
135         }
136         /* Fill in each buffer with an empty indication. */
137         tb = &Buffers[i];
138         tb->fid = NULLIDX;
139         afs_reset_inode(&tb->inode);
140         tb->accesstime = 0;
141         tb->lockers = 0;
142         tb->data = &BufferData[AFS_BUFFER_PAGESIZE * (i & (NPB - 1))];
143         tb->hashIndex = 0;
144         tb->dirty = 0;
145         AFS_RWLOCK_INIT(&tb->lock, "buffer lock");
146     }
147     return;
148 }
149
150 int
151 DRead(struct dcache *adc, int page, struct DirBuffer *entry)
152 {
153     /* Read a page from the disk. */
154     struct buffer *tb, *tb2;
155     struct osi_file *tfile;
156     int code;
157
158     AFS_STATCNT(DRead);
159
160     memset(entry, 0, sizeof(struct DirBuffer));
161
162     ObtainWriteLock(&afs_bufferLock, 256);
163
164 #define bufmatch(tb) (tb->page == page && tb->fid == adc->index)
165 #define buf_Front(head,parent,p) {(parent)->hashNext = (p)->hashNext; (p)->hashNext= *(head);*(head)=(p);}
166
167     /* this apparently-complicated-looking code is simply an example of
168      * a little bit of loop unrolling, and is a standard linked-list
169      * traversal trick. It saves a few assignments at the the expense
170      * of larger code size.  This could be simplified by better use of
171      * macros.
172      */
173     if ((tb = phTable[pHash(adc->index, page)])) {
174         if (bufmatch(tb)) {
175             ObtainWriteLock(&tb->lock, 257);
176             tb->lockers++;
177             ReleaseWriteLock(&afs_bufferLock);
178             tb->accesstime = timecounter++;
179             AFS_STATS(afs_stats_cmperf.bufHits++);
180             ReleaseWriteLock(&tb->lock);
181             entry->buffer = tb;
182             entry->data = tb->data;
183             return 0;
184         } else {
185             struct buffer **bufhead;
186             bufhead = &(phTable[pHash(adc->index, page)]);
187             while ((tb2 = tb->hashNext)) {
188                 if (bufmatch(tb2)) {
189                     buf_Front(bufhead, tb, tb2);
190                     ObtainWriteLock(&tb2->lock, 258);
191                     tb2->lockers++;
192                     ReleaseWriteLock(&afs_bufferLock);
193                     tb2->accesstime = timecounter++;
194                     AFS_STATS(afs_stats_cmperf.bufHits++);
195                     ReleaseWriteLock(&tb2->lock);
196                     entry->buffer = tb2;
197                     entry->data = tb2->data;
198                     return 0;
199                 }
200                 if ((tb = tb2->hashNext)) {
201                     if (bufmatch(tb)) {
202                         buf_Front(bufhead, tb2, tb);
203                         ObtainWriteLock(&tb->lock, 259);
204                         tb->lockers++;
205                         ReleaseWriteLock(&afs_bufferLock);
206                         tb->accesstime = timecounter++;
207                         AFS_STATS(afs_stats_cmperf.bufHits++);
208                         ReleaseWriteLock(&tb->lock);
209                         entry->buffer = tb;
210                         entry->data = tb->data;
211                         return 0;
212                     }
213                 } else
214                     break;
215             }
216         }
217     } else
218         tb2 = NULL;
219
220     AFS_STATS(afs_stats_cmperf.bufMisses++);
221     /* can't find it */
222     /* The last thing we looked at was either tb or tb2 (or nothing). That
223      * is at least the oldest buffer on one particular hash chain, so it's
224      * a pretty good place to start looking for the truly oldest buffer.
225      */
226     tb = afs_newslot(adc, page, (tb ? tb : tb2));
227     if (!tb) {
228         ReleaseWriteLock(&afs_bufferLock);
229         return EIO;
230     }
231     ObtainWriteLock(&tb->lock, 260);
232     tb->lockers++;
233     ReleaseWriteLock(&afs_bufferLock);
234     if (page * AFS_BUFFER_PAGESIZE >= adc->f.chunkBytes) {
235         tb->fid = NULLIDX;
236         afs_reset_inode(&tb->inode);
237         tb->lockers--;
238         ReleaseWriteLock(&tb->lock);
239         return ENOENT; /* past the end */
240     }
241     tfile = afs_CFileOpen(&adc->f.inode);
242     osi_Assert(tfile);
243     code =
244         afs_CFileRead(tfile, tb->page * AFS_BUFFER_PAGESIZE, tb->data,
245                       AFS_BUFFER_PAGESIZE);
246     afs_CFileClose(tfile);
247     if (code < AFS_BUFFER_PAGESIZE) {
248         tb->fid = NULLIDX;
249         afs_reset_inode(&tb->inode);
250         tb->lockers--;
251         ReleaseWriteLock(&tb->lock);
252         return EIO;
253     }
254     /* Note that findslot sets the page field in the buffer equal to
255      * what it is searching for. */
256     ReleaseWriteLock(&tb->lock);
257     entry->buffer = tb;
258     entry->data = tb->data;
259     return 0;
260 }
261
262 static void
263 FixupBucket(struct buffer *ap)
264 {
265     struct buffer **lp, *tp;
266     int i;
267     /* first try to get it out of its current hash bucket, in which it
268      * might not be */
269     AFS_STATCNT(FixupBucket);
270     i = ap->hashIndex;
271     lp = &phTable[i];
272     for (tp = *lp; tp; tp = tp->hashNext) {
273         if (tp == ap) {
274             *lp = tp->hashNext;
275             break;
276         }
277         lp = &tp->hashNext;
278     }
279     /* now figure the new hash bucket */
280     i = pHash(ap->fid, ap->page);
281     ap->hashIndex = i;          /* remember where we are for deletion */
282     ap->hashNext = phTable[i];  /* add us to the list */
283     phTable[i] = ap;            /* at the front, since it's LRU */
284 }
285
286 /* lp is pointer to a fairly-old buffer */
287 static struct buffer *
288 afs_newslot(struct dcache *adc, afs_int32 apage, struct buffer *lp)
289 {
290     /* Find a usable buffer slot */
291     afs_int32 i;
292     afs_int32 lt = 0;
293     struct buffer *tp;
294     struct osi_file *tfile;
295
296     AFS_STATCNT(afs_newslot);
297     /* we take a pointer here to a buffer which was at the end of an
298      * LRU hash chain.  Odds are, it's one of the older buffers, not
299      * one of the newer.  Having an older buffer to start with may
300      * permit us to avoid a few of the assignments in the "typical
301      * case" for loop below.
302      */
303     if (lp && (lp->lockers == 0)) {
304         lt = lp->accesstime;
305     } else {
306         lp = NULL;
307     }
308
309     /* timecounter might have wrapped, if machine is very very busy
310      * and stays up for a long time.  Timecounter mustn't wrap twice
311      * (positive->negative->positive) before calling newslot, but that
312      * would require 2 billion consecutive cache hits... Anyway, the
313      * penalty is only that the cache replacement policy will be
314      * almost MRU for the next ~2 billion DReads...  newslot doesn't
315      * get called nearly as often as DRead, so in order to avoid the
316      * performance penalty of using the hypers, it's worth doing the
317      * extra check here every time.  It's probably cheaper than doing
318      * hcmp, anyway.  There is a little performance hit resulting from
319      * resetting all the access times to 0, but it only happens once
320      * every month or so, and the access times will rapidly sort
321      * themselves back out after just a few more DReads.
322      */
323     if (timecounter < 0) {
324         timecounter = 1;
325         tp = Buffers;
326         for (i = 0; i < nbuffers; i++, tp++) {
327             tp->accesstime = 0;
328             if (!lp && !tp->lockers)    /* one is as good as the rest, I guess */
329                 lp = tp;
330         }
331     } else {
332         /* this is the typical case */
333         tp = Buffers;
334         for (i = 0; i < nbuffers; i++, tp++) {
335             if (tp->lockers == 0) {
336                 if (!lp || tp->accesstime < lt) {
337                     lp = tp;
338                     lt = tp->accesstime;
339                 }
340             }
341         }
342     }
343
344     if (lp == 0) {
345         /* No unlocked buffers. If still possible, allocate a new increment */
346         if (nbuffers + NPB > afs_max_buffers) {
347             /* There are no unlocked buffers -- this used to panic, but that
348              * seems extreme.  To the best of my knowledge, all the callers
349              * of DRead are prepared to handle a zero return.  Some of them
350              * just panic directly, but not all of them. */
351             afs_warn("afs: all buffers locked\n");
352             return 0;
353         }
354
355         BufferData = afs_osi_Alloc(AFS_BUFFER_PAGESIZE * NPB);
356         osi_Assert(BufferData != NULL);
357         for (i = 0; i< NPB; i++) {
358             /* Fill in each buffer with an empty indication. */
359             tp = &Buffers[i + nbuffers];
360             tp->fid = NULLIDX;
361             afs_reset_inode(&tp->inode);
362             tp->accesstime = 0;
363             tp->lockers = 0;
364             tp->data = &BufferData[AFS_BUFFER_PAGESIZE * i];
365             tp->hashIndex = 0;
366             tp->dirty = 0;
367             AFS_RWLOCK_INIT(&tp->lock, "buffer lock");
368         }
369         lp = &Buffers[nbuffers];
370         nbuffers += NPB;
371     }
372
373     if (lp->dirty) {
374         /* see DFlush for rationale for not getting and locking the dcache */
375         tfile = afs_CFileOpen(&lp->inode);
376         osi_Assert(tfile);
377         afs_CFileWrite(tfile, lp->page * AFS_BUFFER_PAGESIZE, lp->data,
378                        AFS_BUFFER_PAGESIZE);
379         lp->dirty = 0;
380         afs_CFileClose(tfile);
381         AFS_STATS(afs_stats_cmperf.bufFlushDirty++);
382     }
383
384     /* Zero out the data so we don't leak something we shouldn't. */
385     memset(lp->data, 0, AFS_BUFFER_PAGESIZE);
386     /* Now fill in the header. */
387     lp->fid = adc->index;
388     afs_copy_inode(&lp->inode, &adc->f.inode);
389     lp->page = apage;
390     lp->accesstime = timecounter++;
391     FixupBucket(lp);            /* move to the right hash bucket */
392
393     return lp;
394 }
395
396 void
397 DRelease(struct DirBuffer *entry, int flag)
398 {
399     struct buffer *tp;
400
401     AFS_STATCNT(DRelease);
402
403     tp = entry->buffer;
404     if (tp == NULL)
405         return;
406
407     tp = entry->buffer;
408     ObtainWriteLock(&tp->lock, 261);
409     tp->lockers--;
410     if (flag)
411         tp->dirty = 1;
412     ReleaseWriteLock(&tp->lock);
413 }
414
415 int
416 DVOffset(struct DirBuffer *entry)
417 {
418     struct buffer *bp;
419
420     AFS_STATCNT(DVOffset);
421
422     bp = entry->buffer;
423     return AFS_BUFFER_PAGESIZE * bp->page 
424             + (char *)entry->data - (char *)bp->data;
425 }
426
427 /*!
428  * Zap one dcache entry: destroy one FID's buffers.
429  *
430  * 1/1/91 - I've modified the hash function to take the page as well
431  * as the *fid, so that lookup will be a bit faster.  That presents some
432  * difficulties for Zap, which now has to have some knowledge of the nature
433  * of the hash function.  Oh well.  This should use the list traversal
434  * method of DRead...
435  *
436  * \param adc The dcache entry to be zapped.
437  */
438 void
439 DZap(struct dcache *adc)
440 {
441     int i;
442     /* Destroy all buffers pertaining to a particular fid. */
443     struct buffer *tb;
444
445     AFS_STATCNT(DZap);
446     ObtainReadLock(&afs_bufferLock);
447
448     for (i = 0; i <= PHPAGEMASK; i++)
449         for (tb = phTable[pHash(adc->index, i)]; tb; tb = tb->hashNext)
450             if (tb->fid == adc->index) {
451                 ObtainWriteLock(&tb->lock, 262);
452                 tb->fid = NULLIDX;
453                 afs_reset_inode(&tb->inode);
454                 tb->dirty = 0;
455                 ReleaseWriteLock(&tb->lock);
456             }
457     ReleaseReadLock(&afs_bufferLock);
458 }
459
460 static void
461 DFlushBuffer(struct buffer *ab)
462 {
463     struct osi_file *tfile;
464
465     tfile = afs_CFileOpen(&ab->inode);
466     osi_Assert(tfile);
467     afs_CFileWrite(tfile, ab->page * AFS_BUFFER_PAGESIZE,
468                    ab->data, AFS_BUFFER_PAGESIZE);
469     ab->dirty = 0;      /* Clear the dirty flag */
470     afs_CFileClose(tfile);
471 }
472
473 void
474 DFlushDCache(struct dcache *adc)
475 {
476     int i;
477     struct buffer *tb;
478
479     ObtainReadLock(&afs_bufferLock);
480
481     for (i = 0; i <= PHPAGEMASK; i++)
482         for (tb = phTable[pHash(adc->index, i)]; tb; tb = tb->hashNext)
483             if (tb->fid == adc->index) {
484                 ObtainWriteLock(&tb->lock, 701);
485                 tb->lockers++;
486                 ReleaseReadLock(&afs_bufferLock);
487                 if (tb->dirty) {
488                     DFlushBuffer(tb);
489                 }
490                 tb->lockers--;
491                 ReleaseWriteLock(&tb->lock);
492                 ObtainReadLock(&afs_bufferLock);
493             }
494
495     ReleaseReadLock(&afs_bufferLock);
496 }
497
498 int
499 DFlush(void)
500 {
501     /* Flush all the modified buffers. */
502     int i;
503     struct buffer *tb;
504
505     AFS_STATCNT(DFlush);
506     tb = Buffers;
507     ObtainReadLock(&afs_bufferLock);
508     for (i = 0; i < nbuffers; i++, tb++) {
509         if (tb->dirty) {
510             ObtainWriteLock(&tb->lock, 263);
511             tb->lockers++;
512             ReleaseReadLock(&afs_bufferLock);
513             if (tb->dirty) {
514                 /* it seems safe to do this I/O without having the dcache
515                  * locked, since the only things that will update the data in
516                  * a directory are the buffer package, which holds the relevant
517                  * tb->lock while doing the write, or afs_GetDCache, which
518                  * DZap's the directory while holding the dcache lock.
519                  * It is not possible to lock the dcache or even call
520                  * afs_GetDSlot to map the index to the dcache since the dir
521                  * package's caller has some dcache object locked already (so
522                  * we cannot lock afs_xdcache). In addition, we cannot obtain
523                  * a dcache lock while holding the tb->lock of the same file
524                  * since that can deadlock with DRead/DNew */
525                 DFlushBuffer(tb);
526             }
527             tb->lockers--;
528             ReleaseWriteLock(&tb->lock);
529             ObtainReadLock(&afs_bufferLock);
530         }
531     }
532     ReleaseReadLock(&afs_bufferLock);
533
534     return 0;
535 }
536
537 int
538 DNew(struct dcache *adc, int page, struct DirBuffer *entry)
539 {
540     /* Same as read, only do *not* even try to read the page, since it
541      * probably doesn't exist. */
542     struct buffer *tb;
543     AFS_STATCNT(DNew);
544
545     ObtainWriteLock(&afs_bufferLock, 264);
546     if ((tb = afs_newslot(adc, page, NULL)) == 0) {
547         ReleaseWriteLock(&afs_bufferLock);
548         return EIO;
549     }
550     /* extend the chunk, if needed */
551     /* Do it now, not in DFlush or afs_newslot when the data is written out,
552      * since now our caller has adc->lock writelocked, and we can't acquire
553      * that lock (or even map from a fid to a dcache) in afs_newslot or
554      * DFlush due to lock hierarchy issues */
555     if ((page + 1) * AFS_BUFFER_PAGESIZE > adc->f.chunkBytes) {
556         afs_AdjustSize(adc, (page + 1) * AFS_BUFFER_PAGESIZE);
557         osi_Assert(afs_WriteDCache(adc, 1) == 0);
558     }
559     ObtainWriteLock(&tb->lock, 265);
560     tb->lockers++;
561     ReleaseWriteLock(&afs_bufferLock);
562     ReleaseWriteLock(&tb->lock);
563     entry->buffer = tb;
564     entry->data = tb->data;
565
566     return 0;
567 }
568
569 void
570 shutdown_bufferpackage(void)
571 {
572     struct buffer *tp;
573     int i;
574
575     AFS_STATCNT(shutdown_bufferpackage);
576     /* Free all allocated Buffers and associated buffer pages */
577     DFlush();
578     if (afs_cold_shutdown) {
579         dinit_flag = 0;
580         tp = Buffers;
581         for (i = 0; i < nbuffers; i += NPB, tp += NPB) {
582             afs_osi_Free(tp->data, NPB * AFS_BUFFER_PAGESIZE);
583         }
584         afs_osi_Free(Buffers, nbuffers * sizeof(struct buffer));
585         nbuffers = 0;
586         timecounter = 1;
587         for (i = 0; i < PHSIZE; i++)
588             phTable[i] = 0;
589         memset(&afs_bufferLock, 0, sizeof(afs_lock_t));
590     }
591 }