4958865e5069302519977683e07e9fc4f6020d71
[openafs.git] / src / afs / afs_dcache.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  *$All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 /*
11  * Implements:
12  */
13 #include <afsconfig.h>
14 #include "../afs/param.h"
15
16 RCSID("$Header$");
17
18 #include "../afs/sysincludes.h" /*Standard vendor system headers*/
19 #include "../afs/afsincludes.h" /*AFS-based standard headers*/
20 #include "../afs/afs_stats.h"  /* statistics */
21 #include "../afs/afs_cbqueue.h"
22 #include "../afs/afs_osidnlc.h"
23
24 /* Forward declarations. */
25 static void afs_GetDownD(int anumber, int *aneedSpace);
26 static void afs_FreeDiscardedDCache(void);
27 static void afs_DiscardDCache(struct dcache *);
28 static void afs_FreeDCache(struct dcache *);
29
30 /*
31  * --------------------- Exported definitions ---------------------
32  */
33 afs_lock_t afs_xdcache;                 /*Lock: alloc new disk cache entries*/
34 afs_int32 afs_freeDCList;               /*Free list for disk cache entries*/
35 afs_int32 afs_freeDCCount;              /*Count of elts in freeDCList*/
36 afs_int32 afs_discardDCList;            /*Discarded disk cache entries*/
37 afs_int32 afs_discardDCCount;           /*Count of elts in discardDCList*/
38 struct dcache *afs_freeDSList;          /*Free list for disk slots */
39 struct dcache *afs_Initial_freeDSList;  /*Initial list for above*/
40 ino_t cacheInode;                       /*Inode for CacheItems file*/
41 struct osi_file *afs_cacheInodep = 0;   /* file for CacheItems inode */
42 struct afs_q afs_DLRU;                  /*dcache LRU*/
43 afs_int32 afs_dhashsize = 1024;
44 afs_int32 *afs_dvhashTbl;               /*Data cache hash table*/
45 afs_int32 *afs_dchashTbl;               /*Data cache hash table*/
46 afs_int32 *afs_dvnextTbl;               /*Dcache hash table links */
47 afs_int32 *afs_dcnextTbl;               /*Dcache hash table links */
48 struct dcache **afs_indexTable;         /*Pointers to dcache entries*/
49 afs_hyper_t *afs_indexTimes;            /*Dcache entry Access times*/
50 afs_int32 *afs_indexUnique;             /*dcache entry Fid.Unique */
51 unsigned char *afs_indexFlags;          /*(only one) Is there data there?*/
52 afs_hyper_t afs_indexCounter;           /*Fake time for marking index
53                                           entries*/
54 afs_int32 afs_cacheFiles =0;            /*Size of afs_indexTable*/
55 afs_int32 afs_cacheBlocks;              /*1K blocks in cache*/
56 afs_int32 afs_cacheStats;               /*Stat entries in cache*/
57 afs_int32 afs_blocksUsed;               /*Number of blocks in use*/
58 afs_int32 afs_blocksDiscarded;          /*Blocks freed but not truncated */
59 afs_int32 afs_fsfragsize = 1023;        /*Underlying Filesystem minimum unit 
60                                          *of disk allocation usually 1K
61                                          *this value is (truefrag -1 ) to
62                                          *save a bunch of subtracts... */
63 #ifdef AFS_64BIT_CLIENT
64 #ifdef AFS_VM_RDWR_ENV
65 afs_size_t afs_vmMappingEnd;            /* for large files (>= 2GB) the VM
66                                          * mapping an 32bit addressing machines
67                                          * can only be used below the 2 GB
68                                          * line. From this point upwards we
69                                          * must do direct I/O into the cache
70                                          * files. The value should be on a
71                                          * chunk boundary. */
72 #endif /* AFS_VM_RDWR_ENV */
73 #endif /* AFS_64BIT_CLIENT */
74
75 /* The following is used to ensure that new dcache's aren't obtained when
76  * the cache is nearly full.
77  */
78 int afs_WaitForCacheDrain = 0;
79 int afs_TruncateDaemonRunning = 0;
80 int afs_CacheTooFull = 0;
81
82 afs_int32  afs_dcentries;               /* In-memory dcache entries */
83
84
85 int dcacheDisabled = 0;
86
87 extern struct dcache *afs_UFSGetDSlot();
88 extern struct volume *afs_UFSGetVolSlot();
89 extern int osi_UFSTruncate(), afs_osi_Read(), afs_osi_Write(), osi_UFSClose();
90 extern int afs_UFSRead(), afs_UFSWrite();
91 extern int afs_UFSHandleLink();
92 static int afs_UFSCacheFetchProc(), afs_UFSCacheStoreProc();
93 struct afs_cacheOps afs_UfsCacheOps = {
94     osi_UFSOpen,
95     osi_UFSTruncate,
96     afs_osi_Read,
97     afs_osi_Write,
98     osi_UFSClose,
99     afs_UFSRead,
100     afs_UFSWrite,
101     afs_UFSCacheFetchProc,
102     afs_UFSCacheStoreProc,
103     afs_UFSGetDSlot,
104     afs_UFSGetVolSlot,
105     afs_UFSHandleLink,
106 };
107
108 struct afs_cacheOps afs_MemCacheOps = {
109     afs_MemCacheOpen,
110     afs_MemCacheTruncate,
111     afs_MemReadBlk,
112     afs_MemWriteBlk,
113     afs_MemCacheClose,
114     afs_MemRead,
115     afs_MemWrite,
116     afs_MemCacheFetchProc,
117     afs_MemCacheStoreProc,
118     afs_MemGetDSlot,
119     afs_MemGetVolSlot,
120     afs_MemHandleLink,
121 };
122
123 int cacheDiskType;                      /*Type of backing disk for cache*/
124 struct afs_cacheOps *afs_cacheType;
125
126
127
128
129 /*
130  * afs_StoreWarn
131  *
132  * Description:
133  *      Warn about failing to store a file.
134  *
135  * Parameters:
136  *      acode   : Associated error code.
137  *      avolume : Volume involved.
138  *      aflags  : How to handle the output:
139  *                      aflags & 1: Print out on console
140  *                      aflags & 2: Print out on controlling tty
141  *
142  * Environment:
143  *      Call this from close call when vnodeops is RCS unlocked.
144  */
145
146 void afs_StoreWarn(register afs_int32 acode, afs_int32 avolume, register afs_int32 aflags)
147 {
148     static char problem_fmt[] =
149         "afs: failed to store file in volume %d (%s)\n";
150     static char problem_fmt_w_error[] =
151         "afs: failed to store file in volume %d (error %d)\n";
152     static char netproblems[] = "network problems";
153     static char partfull[]    = "partition full";
154     static char overquota[]   = "over quota";
155
156     AFS_STATCNT(afs_StoreWarn);
157     if (acode < 0) {
158         /*
159          * Network problems
160          */
161         if (aflags & 1)
162             afs_warn(problem_fmt, avolume, netproblems);
163         if (aflags & 2)
164             afs_warnuser(problem_fmt, avolume, netproblems);
165     }
166     else
167         if (acode == ENOSPC) {
168             /*
169              * Partition full
170              */
171             if (aflags & 1)
172                 afs_warn(problem_fmt, avolume, partfull);
173             if (aflags & 2)
174                 afs_warnuser(problem_fmt, avolume, partfull);
175         }
176         else
177 #ifndef AFS_SUN5_ENV
178             /* EDQUOT doesn't exist on solaris and won't be sent by the server.
179              * Instead ENOSPC will be sent...
180              */
181             if (acode == EDQUOT) {
182                 /*
183                  * Quota exceeded
184                  */
185                 if (aflags & 1)
186                     afs_warn(problem_fmt, avolume, overquota);
187                 if (aflags & 2)
188                     afs_warnuser(problem_fmt, avolume, overquota);
189             } else
190 #endif
191             {
192                 /*
193                  * Unknown error
194                  */
195                 if (aflags & 1)
196                     afs_warn(problem_fmt_w_error, avolume, acode);
197                 if (aflags & 2)
198                     afs_warnuser(problem_fmt_w_error, avolume, acode);
199             }
200 } /*afs_StoreWarn*/
201
202 void afs_MaybeWakeupTruncateDaemon(void)
203 {
204     if (!afs_CacheTooFull && afs_CacheIsTooFull()) {
205         afs_CacheTooFull = 1;
206         if (!afs_TruncateDaemonRunning)
207             afs_osi_Wakeup((int *)afs_CacheTruncateDaemon);
208     } else if (!afs_TruncateDaemonRunning &&
209                 afs_blocksDiscarded > CM_MAXDISCARDEDCHUNKS) {
210         afs_osi_Wakeup((int *)afs_CacheTruncateDaemon);
211     }
212 }
213
214 /* Keep statistics on run time for afs_CacheTruncateDaemon. This is a
215  * struct so we need only export one symbol for AIX.
216  */
217 static struct CTD_stats {
218     osi_timeval_t CTD_beforeSleep;
219     osi_timeval_t CTD_afterSleep;
220     osi_timeval_t CTD_sleepTime;
221     osi_timeval_t CTD_runTime;
222     int CTD_nSleeps;
223 } CTD_stats;
224
225 u_int afs_min_cache = 0;
226 void afs_CacheTruncateDaemon(void)
227 {
228     osi_timeval_t CTD_tmpTime;
229     u_int counter;
230     u_int cb_lowat;
231     u_int dc_hiwat = (100-CM_DCACHECOUNTFREEPCT+CM_DCACHEEXTRAPCT)*afs_cacheFiles/100;
232     afs_min_cache = (((10 * AFS_CHUNKSIZE(0)) + afs_fsfragsize) & ~afs_fsfragsize)>>10;
233
234     osi_GetuTime(&CTD_stats.CTD_afterSleep);
235     afs_TruncateDaemonRunning = 1;
236     while (1) {
237         cb_lowat =  ((CM_DCACHESPACEFREEPCT-CM_DCACHEEXTRAPCT)
238                      * afs_cacheBlocks) / 100;
239         MObtainWriteLock(&afs_xdcache,266);
240         if (afs_CacheTooFull) {
241           int space_needed, slots_needed;
242             /* if we get woken up, we should try to clean something out */
243             for (counter = 0; counter < 10; counter++) {
244                 space_needed = afs_blocksUsed - afs_blocksDiscarded - cb_lowat;
245                 slots_needed = dc_hiwat - afs_freeDCCount - afs_discardDCCount;
246                 afs_GetDownD(slots_needed, &space_needed);      
247                 if ((space_needed <= 0) && (slots_needed <= 0)) {
248                     break;
249                 }
250                 if (afs_termState == AFSOP_STOP_TRUNCDAEMON)
251                     break;
252             }
253             if (!afs_CacheIsTooFull())
254                 afs_CacheTooFull = 0;
255         }
256         MReleaseWriteLock(&afs_xdcache);
257
258         /*
259          * This is a defensive check to try to avoid starving threads
260          * that may need the global lock so thay can help free some
261          * cache space. If this thread won't be sleeping or truncating
262          * any cache files then give up the global lock so other
263          * threads get a chance to run.
264          */
265         if ((afs_termState!=AFSOP_STOP_TRUNCDAEMON) && afs_CacheTooFull &&
266             (!afs_blocksDiscarded || afs_WaitForCacheDrain)) {
267             afs_osi_Wait(100, 0, 0); /* 100 milliseconds */
268         }
269
270         /*
271          * This is where we free the discarded cache elements.
272          */
273         while(afs_blocksDiscarded && !afs_WaitForCacheDrain && 
274               (afs_termState!=AFSOP_STOP_TRUNCDAEMON))
275         {
276             afs_FreeDiscardedDCache();
277         }
278
279         /* See if we need to continue to run. Someone may have
280          * signalled us while we were executing.
281          */
282         if (!afs_WaitForCacheDrain && !afs_CacheTooFull &&
283                         (afs_termState!=AFSOP_STOP_TRUNCDAEMON))
284         {
285             /* Collect statistics on truncate daemon. */
286             CTD_stats.CTD_nSleeps++;
287             osi_GetuTime(&CTD_stats.CTD_beforeSleep);
288             afs_stats_GetDiff(CTD_tmpTime, CTD_stats.CTD_afterSleep,
289                               CTD_stats.CTD_beforeSleep);
290             afs_stats_AddTo(CTD_stats.CTD_runTime, CTD_tmpTime);
291
292             afs_TruncateDaemonRunning = 0;
293             afs_osi_Sleep((int *)afs_CacheTruncateDaemon);  
294             afs_TruncateDaemonRunning = 1;
295
296             osi_GetuTime(&CTD_stats.CTD_afterSleep);
297             afs_stats_GetDiff(CTD_tmpTime, CTD_stats.CTD_beforeSleep,
298                               CTD_stats.CTD_afterSleep);
299             afs_stats_AddTo(CTD_stats.CTD_sleepTime, CTD_tmpTime);
300         }
301         if (afs_termState == AFSOP_STOP_TRUNCDAEMON) {
302 #ifdef AFS_AFSDB_ENV
303             afs_termState = AFSOP_STOP_AFSDB;
304 #else
305             afs_termState = AFSOP_STOP_RXEVENT;
306 #endif
307             afs_osi_Wakeup(&afs_termState);
308             break;
309         }
310     }
311 }
312
313
314 /*
315  * afs_AdjustSize
316  *
317  * Description:
318  *      Make adjustment for the new size in the disk cache entry
319  *
320  * Major Assumptions Here:
321  *      Assumes that frag size is an integral power of two, less one,
322  *      and that this is a two's complement machine.  I don't
323  *      know of any filesystems which violate this assumption...
324  *
325  * Parameters:
326  *      adc      : Ptr to dcache entry.
327  *      anewsize : New size desired.
328  */
329
330 void afs_AdjustSize(register struct dcache *adc, register afs_int32 newSize)
331 {
332     register afs_int32 oldSize;
333
334     AFS_STATCNT(afs_AdjustSize);
335
336     adc->dflags |= DFEntryMod;
337     oldSize = ((adc->f.chunkBytes + afs_fsfragsize)^afs_fsfragsize)>>10;/* round up */
338     adc->f.chunkBytes = newSize;
339     newSize = ((newSize + afs_fsfragsize)^afs_fsfragsize)>>10;/* round up */
340     if (newSize > oldSize) {
341         /* We're growing the file, wakeup the daemon */
342         afs_MaybeWakeupTruncateDaemon();
343     }
344     afs_blocksUsed += (newSize - oldSize);
345     afs_stats_cmperf.cacheBlocksInUse = afs_blocksUsed; /* XXX */
346 }
347
348
349 /*
350  * afs_GetDownD
351  *
352  * Description:
353  *      This routine is responsible for moving at least one entry (but up
354  *      to some number of them) from the LRU queue to the free queue.
355  *
356  * Parameters:
357  *      anumber    : Number of entries that should ideally be moved.
358  *      aneedSpace : How much space we need (1K blocks);
359  *
360  * Environment:
361  *      The anumber parameter is just a hint; at least one entry MUST be
362  *      moved, or we'll panic.  We must be called with afs_xdcache
363  *      write-locked.  We should try to satisfy both anumber and aneedspace,
364  *      whichever is more demanding - need to do several things:
365  *      1.  only grab up to anumber victims if aneedSpace <= 0, not
366  *          the whole set of MAXATONCE.
367  *      2.  dynamically choose MAXATONCE to reflect severity of
368  *          demand: something like (*aneedSpace >> (logChunk - 9)) 
369  *  N.B. if we're called with aneedSpace <= 0 and anumber > 0, that
370  *  indicates that the cache is not properly configured/tuned or
371  *  something. We should be able to automatically correct that problem.
372  */
373
374 #define MAXATONCE   16          /* max we can obtain at once */
375 static void afs_GetDownD(int anumber, int *aneedSpace)
376 {
377
378     struct dcache *tdc;
379     struct VenusFid *afid;
380     afs_int32 i, j, k;
381     afs_hyper_t vtime;
382     int skip, phase;
383     register struct vcache *tvc;
384     afs_uint32 victims[MAXATONCE];
385     struct dcache *victimDCs[MAXATONCE];
386     afs_hyper_t victimTimes[MAXATONCE];/* youngest (largest LRU time) first */
387     afs_uint32 victimPtr;           /* next free item in victim arrays */
388     afs_hyper_t maxVictimTime;      /* youngest (largest LRU time) victim */
389     afs_uint32 maxVictimPtr;                /* where it is */
390     int discard;
391
392     AFS_STATCNT(afs_GetDownD);
393     if (CheckLock(&afs_xdcache) != -1)
394         osi_Panic("getdownd nolock");
395     /* decrement anumber first for all dudes in free list */
396     /* SHOULD always decrement anumber first, even if aneedSpace >0, 
397      * because we should try to free space even if anumber <=0 */
398     if (!aneedSpace || *aneedSpace <= 0) {
399         anumber -= afs_freeDCCount;
400         if (anumber <= 0) return;       /* enough already free */
401     }
402     /* bounds check parameter */
403     if (anumber > MAXATONCE)
404         anumber = MAXATONCE;   /* all we can do */
405
406     /*
407      * The phase variable manages reclaims.  Set to 0, the first pass,
408      * we don't reclaim active entries.  Set to 1, we reclaim even active
409      * ones.
410      */
411     phase = 0;
412     for (i = 0; i < afs_cacheFiles; i++)
413         /* turn off all flags */
414         afs_indexFlags[i] &= ~IFFlag;
415
416     while (anumber > 0 || (aneedSpace && *aneedSpace >0)) {
417         /* find oldest entries for reclamation */
418         maxVictimPtr = victimPtr = 0;
419         hzero(maxVictimTime);
420         /* select victims from access time array */
421         for (i = 0; i < afs_cacheFiles; i++) {
422             if (afs_indexFlags[i] & (IFDataMod | IFFree | IFDiscarded)) {
423               /* skip if dirty or already free */
424               continue;
425             }
426             tdc = afs_indexTable[i];
427             if (tdc && (tdc->refCount != 0)) {
428               /* Referenced; can't use it! */
429               continue;
430             }
431             hset(vtime, afs_indexTimes[i]);
432
433             /* if we've already looked at this one, skip it */
434             if (afs_indexFlags[i] & IFFlag) continue;
435
436             if (victimPtr < MAXATONCE) {
437                 /* if there's at least one free victim slot left */
438                 victims[victimPtr] = i;
439                 hset(victimTimes[victimPtr], vtime);
440                 if (hcmp(vtime, maxVictimTime) > 0) {
441                     hset(maxVictimTime, vtime);
442                     maxVictimPtr = victimPtr;
443                 }
444                 victimPtr++;
445             }
446             else if (hcmp(vtime, maxVictimTime) < 0) {
447                 /*
448                  * We're older than youngest victim, so we replace at
449                  * least one victim
450                  */
451                 /* find youngest (largest LRU) victim */
452                 j = maxVictimPtr;
453                 if (j == victimPtr) osi_Panic("getdownd local");
454                 victims[j] = i;
455                 hset(victimTimes[j], vtime);
456                 /* recompute maxVictimTime */
457                 hset(maxVictimTime, vtime);
458                 for(j = 0; j < victimPtr; j++)
459                     if (hcmp(maxVictimTime, victimTimes[j]) < 0) {
460                         hset(maxVictimTime, victimTimes[j]);
461                         maxVictimPtr = j;
462                     }
463             }
464         } /* big for loop */
465
466         /* now really reclaim the victims */
467         j = 0;  /* flag to track if we actually got any of the victims */
468         /* first, hold all the victims, since we're going to release the lock
469          * during the truncate operation.
470          */
471         for(i=0; i < victimPtr; i++) {
472             tdc = afs_GetDSlot(victims[i], 0);
473             /* We got tdc->tlock(R) here */
474             if (tdc->refCount == 1)
475                 victimDCs[i] = tdc;
476             else
477                 victimDCs[i] = 0;
478             ReleaseReadLock(&tdc->tlock);
479             if (!victimDCs[i]) afs_PutDCache(tdc);
480         }
481         for(i = 0; i < victimPtr; i++) {
482             /* q is first elt in dcache entry */
483             tdc = victimDCs[i];
484             /* now, since we're dropping the afs_xdcache lock below, we
485              * have to verify, before proceeding, that there are no other
486              * references to this dcache entry, even now.  Note that we
487              * compare with 1, since we bumped it above when we called
488              * afs_GetDSlot to preserve the entry's identity.
489              */
490             if (tdc && tdc->refCount == 1) {
491                 unsigned char chunkFlags;
492                 afs_size_t tchunkoffset;
493                 afid = &tdc->f.fid;
494                 /* xdcache is lower than the xvcache lock */
495                 MReleaseWriteLock(&afs_xdcache);
496                 MObtainReadLock(&afs_xvcache);
497                 tvc = afs_FindVCache(afid, 0, 0 /* no stats, no vlru */ );
498                 MReleaseReadLock(&afs_xvcache);
499                 MObtainWriteLock(&afs_xdcache, 527);
500                 skip = 0;
501                 if (tdc->refCount > 1) skip = 1;
502                 if (tvc) {
503                     tchunkoffset = AFS_CHUNKTOBASE(tdc->f.chunk);
504                     chunkFlags = afs_indexFlags[tdc->index];
505                     if (phase == 0 && osi_Active(tvc)) skip = 1;
506                     if (phase > 0 && osi_Active(tvc) && (tvc->states & CDCLock)
507                                 && (chunkFlags & IFAnyPages)) skip = 1;
508                     if (chunkFlags & IFDataMod) skip = 1;
509                     afs_Trace4(afs_iclSetp, CM_TRACE_GETDOWND,
510                                ICL_TYPE_POINTER, tvc, ICL_TYPE_INT32, skip,
511                                ICL_TYPE_INT32, tdc->index,
512                                ICL_TYPE_OFFSET, 
513                                ICL_HANDLE_OFFSET(tchunkoffset));
514
515 #if     defined(AFS_SUN5_ENV)
516                     /*
517                      * Now we try to invalidate pages.  We do this only for
518                      * Solaris.  For other platforms, it's OK to recycle a
519                      * dcache entry out from under a page, because the strategy
520                      * function can call afs_GetDCache().
521                      */
522                     if (!skip && (chunkFlags & IFAnyPages)) {
523                         int code;
524
525                         MReleaseWriteLock(&afs_xdcache);
526                         MObtainWriteLock(&tvc->vlock, 543);
527                         if (tvc->multiPage) {
528                             skip = 1;
529                             goto endmultipage;
530                         }
531                         /* block locking pages */
532                         tvc->vstates |= VPageCleaning;
533                         /* block getting new pages */
534                         tvc->activeV++;
535                         MReleaseWriteLock(&tvc->vlock);
536                         /* One last recheck */
537                         MObtainWriteLock(&afs_xdcache, 333);
538                         chunkFlags = afs_indexFlags[tdc->index];
539                         if (tdc->refCount > 1
540                             || (chunkFlags & IFDataMod)
541                             || (osi_Active(tvc) && (tvc->states & CDCLock)
542                                 && (chunkFlags & IFAnyPages))) {
543                             skip = 1;
544                             MReleaseWriteLock(&afs_xdcache);
545                             goto endputpage;
546                         }
547                         MReleaseWriteLock(&afs_xdcache);
548
549                         code = osi_VM_GetDownD(tvc, tdc);
550
551                         MObtainWriteLock(&afs_xdcache,269);
552                         /* we actually removed all pages, clean and dirty */
553                         if (code == 0) {
554                             afs_indexFlags[tdc->index] &= ~(IFDirtyPages| IFAnyPages);
555                         } else
556                             skip = 1;
557                         MReleaseWriteLock(&afs_xdcache);
558 endputpage:
559                         MObtainWriteLock(&tvc->vlock, 544);
560                         if (--tvc->activeV == 0 && (tvc->vstates & VRevokeWait)) {
561                             tvc->vstates &= ~VRevokeWait;
562                             afs_osi_Wakeup((char *)&tvc->vstates);
563
564                         }
565                         if (tvc->vstates & VPageCleaning) {
566                             tvc->vstates &= ~VPageCleaning;
567                             afs_osi_Wakeup((char *)&tvc->vstates);
568                         }
569 endmultipage:
570                         MReleaseWriteLock(&tvc->vlock);
571                     } else
572 #endif  /* AFS_SUN5_ENV */
573                     {
574                         MReleaseWriteLock(&afs_xdcache);
575                     }
576
577                     AFS_FAST_RELE(tvc);
578                     MObtainWriteLock(&afs_xdcache, 528);
579                     if (afs_indexFlags[tdc->index] &
580                          (IFDataMod | IFDirtyPages | IFAnyPages)) skip = 1;
581                     if (tdc->refCount > 1) skip = 1;
582                 }
583 #if     defined(AFS_SUN5_ENV)
584                 else {
585                     /* no vnode, so IFDirtyPages is spurious (we don't
586                      * sweep dcaches on vnode recycling, so we can have
587                      * DIRTYPAGES set even when all pages are gone).  Just
588                      * clear the flag.
589                      * Hold vcache lock to prevent vnode from being
590                      * created while we're clearing IFDirtyPages.
591                      */
592                     afs_indexFlags[tdc->index] &= ~(IFDirtyPages | IFAnyPages);
593                 }
594 #endif
595                 if (skip) {
596                     /* skip this guy and mark him as recently used */
597                     afs_indexFlags[tdc->index] |= IFFlag;
598                     afs_Trace4(afs_iclSetp, CM_TRACE_GETDOWND,
599                                ICL_TYPE_POINTER, tvc, ICL_TYPE_INT32, 2,
600                                ICL_TYPE_INT32, tdc->index,
601                                ICL_TYPE_OFFSET, 
602                                ICL_HANDLE_OFFSET(tchunkoffset));
603                 }
604                 else {
605                     /* flush this dude from the data cache and reclaim;
606                      * first, make sure no one will care that we damage
607                      * it, by removing it from all hash tables.  Then,
608                      * melt it down for parts.  Note that any concurrent
609                      * (new possibility!) calls to GetDownD won't touch
610                      * this guy because his reference count is > 0. */
611                     afs_Trace4(afs_iclSetp, CM_TRACE_GETDOWND,
612                                ICL_TYPE_POINTER, tvc, ICL_TYPE_INT32, 3,
613                                ICL_TYPE_INT32, tdc->index,
614                                ICL_TYPE_OFFSET, 
615                                ICL_HANDLE_OFFSET(tchunkoffset));
616 #ifndef AFS_DEC_ENV
617                     AFS_STATCNT(afs_gget);
618 #endif
619                     afs_HashOutDCache(tdc);
620                     if (tdc->f.chunkBytes != 0) {
621                         discard = 1;
622                         if (aneedSpace)
623                           *aneedSpace -= (tdc->f.chunkBytes + afs_fsfragsize) >> 10;
624                     } else {
625                         discard = 0;
626                     }
627                     if (discard) {
628                         afs_DiscardDCache(tdc);
629                     } else {
630                         afs_FreeDCache(tdc);
631                     }
632                     anumber--;
633                     j = 1;      /* we reclaimed at least one victim */
634                 }
635             }
636             afs_PutDCache(tdc);
637         }
638         
639         if (phase == 0) {
640             /* Phase is 0 and no one was found, so try phase 1 (ignore
641              * osi_Active flag) */
642             if (j == 0) {
643                 phase = 1;
644                 for (i = 0; i < afs_cacheFiles; i++)
645                     /* turn off all flags */
646                     afs_indexFlags[i] &= ~IFFlag;
647             }
648         }
649         else {
650             /* found no one in phase 1, we're hosed */
651             if (victimPtr == 0) break;
652         }
653     } /* big while loop */
654     return;
655
656 } /*afs_GetDownD*/
657
658
659 /*
660  * Description: remove adc from any hash tables that would allow it to be located
661  * again by afs_FindDCache or afs_GetDCache.
662  *
663  * Parameters: adc -- pointer to dcache entry to remove from hash tables.
664  *
665  * Locks: Must have the afs_xdcache lock write-locked to call this function.
666  */
667 int afs_HashOutDCache(struct dcache *adc)
668 {
669     int i, us;
670
671 #ifndef AFS_DEC_ENV
672     AFS_STATCNT(afs_glink);
673 #endif
674     /* we know this guy's in the LRUQ.  We'll move dude into DCQ below */
675     DZap(&adc->f.inode);
676     /* if this guy is in the hash table, pull him out */
677     if (adc->f.fid.Fid.Volume != 0) {
678         /* remove entry from first hash chains */
679         i = DCHash(&adc->f.fid, adc->f.chunk);
680         us = afs_dchashTbl[i];
681         if (us == adc->index) {
682             /* first dude in the list */
683             afs_dchashTbl[i] = afs_dcnextTbl[adc->index];
684         }
685         else {
686             /* somewhere on the chain */
687             while (us != NULLIDX) {
688                 if (afs_dcnextTbl[us] == adc->index) {
689                     /* found item pointing at the one to delete */
690                     afs_dcnextTbl[us] = afs_dcnextTbl[adc->index];
691                     break;
692                 }
693                 us = afs_dcnextTbl[us];
694             }
695             if (us == NULLIDX) osi_Panic("dcache hc");
696         }
697         /* remove entry from *other* hash chain */
698         i = DVHash(&adc->f.fid);
699         us = afs_dvhashTbl[i];
700         if (us == adc->index) {
701             /* first dude in the list */
702             afs_dvhashTbl[i] = afs_dvnextTbl[adc->index];
703         }
704         else {
705             /* somewhere on the chain */
706             while (us != NULLIDX) {
707                 if (afs_dvnextTbl[us] == adc->index) {
708                     /* found item pointing at the one to delete */
709                     afs_dvnextTbl[us] = afs_dvnextTbl[adc->index];
710                     break;
711                 }
712                 us = afs_dvnextTbl[us];
713             }
714             if (us == NULLIDX) osi_Panic("dcache hv");
715         }
716     }
717
718     /* prevent entry from being found on a reboot (it is already out of
719      * the hash table, but after a crash, we just look at fid fields of
720      * stable (old) entries).
721      */
722     adc->f.fid.Fid.Volume = 0;  /* invalid */
723
724     /* mark entry as modified */
725     adc->dflags |= DFEntryMod;
726
727     /* all done */
728     return 0;
729 } /*afs_HashOutDCache */
730
731
732 /*
733  * afs_FlushDCache
734  *
735  * Description:
736  *      Flush the given dcache entry, pulling it from hash chains
737  *      and truncating the associated cache file.
738  *
739  * Arguments:
740  *      adc: Ptr to dcache entry to flush.
741  *
742  * Environment:
743  *      This routine must be called with the afs_xdcache lock held
744  *      (in write mode)
745  */
746
747 void afs_FlushDCache(register struct dcache *adc)
748 {
749     AFS_STATCNT(afs_FlushDCache);
750     /*
751      * Bump the number of cache files flushed.
752      */
753     afs_stats_cmperf.cacheFlushes++;
754
755     /* remove from all hash tables */
756     afs_HashOutDCache(adc);
757
758     /* Free its space; special case null operation, since truncate operation
759      * in UFS is slow even in this case, and this allows us to pre-truncate
760      * these files at more convenient times with fewer locks set
761      * (see afs_GetDownD).
762      */
763     if (adc->f.chunkBytes != 0) {
764         afs_DiscardDCache(adc);
765         afs_MaybeWakeupTruncateDaemon();
766     } else {
767         afs_FreeDCache(adc);
768     }
769
770     if (afs_WaitForCacheDrain) {
771         if (afs_blocksUsed <=
772             (CM_CACHESIZEDRAINEDPCT*afs_cacheBlocks)/100) {
773             afs_WaitForCacheDrain = 0;
774             afs_osi_Wakeup(&afs_WaitForCacheDrain);
775         }
776     }
777 } /*afs_FlushDCache*/
778
779
780 /*
781  * afs_FreeDCache
782  *
783  * Description: put a dcache entry on the free dcache entry list.
784  *
785  * Parameters: adc -- dcache entry to free
786  *
787  * Environment: called with afs_xdcache lock write-locked.
788  */
789 static void afs_FreeDCache(register struct dcache *adc)
790 {
791     /* Thread on free list, update free list count and mark entry as
792      * freed in its indexFlags element.  Also, ensure DCache entry gets
793      * written out (set DFEntryMod).
794      */
795
796     afs_dvnextTbl[adc->index] = afs_freeDCList;
797     afs_freeDCList = adc->index;
798     afs_freeDCCount++;
799     afs_indexFlags[adc->index] |= IFFree;
800     adc->dflags |= DFEntryMod;
801
802     if (afs_WaitForCacheDrain) {
803         if ((afs_blocksUsed - afs_blocksDiscarded) <=
804             (CM_CACHESIZEDRAINEDPCT*afs_cacheBlocks)/100) {
805             afs_WaitForCacheDrain = 0;
806             afs_osi_Wakeup(&afs_WaitForCacheDrain);
807         }
808     }
809 }
810
811 /*
812  * afs_DiscardDCache
813  *
814  * Description:
815  *      Discard the cache element by moving it to the discardDCList.
816  *      This puts the cache element into a quasi-freed state, where
817  *      the space may be reused, but the file has not been truncated.
818  *
819  * Major Assumptions Here:
820  *      Assumes that frag size is an integral power of two, less one,
821  *      and that this is a two's complement machine.  I don't
822  *      know of any filesystems which violate this assumption...
823  *
824  * Parameters:
825  *      adc      : Ptr to dcache entry.
826  *
827  * Environment:
828  *      Must be called with afs_xdcache write-locked.
829  */
830
831 static void afs_DiscardDCache(register struct dcache *adc)
832 {
833     register afs_int32 size;
834
835     AFS_STATCNT(afs_DiscardDCache);
836
837     osi_Assert(adc->refCount == 1);
838
839     size = ((adc->f.chunkBytes + afs_fsfragsize)^afs_fsfragsize)>>10;/* round up */
840     afs_blocksDiscarded += size;
841     afs_stats_cmperf.cacheBlocksDiscarded = afs_blocksDiscarded;
842
843     afs_dvnextTbl[adc->index] = afs_discardDCList;
844     afs_discardDCList = adc->index;
845     afs_discardDCCount++;
846
847     adc->f.fid.Fid.Volume = 0;
848     adc->dflags |= DFEntryMod;
849     afs_indexFlags[adc->index] |= IFDiscarded;
850
851     if (afs_WaitForCacheDrain) {
852         if ((afs_blocksUsed - afs_blocksDiscarded) <=
853             (CM_CACHESIZEDRAINEDPCT*afs_cacheBlocks)/100) {
854             afs_WaitForCacheDrain = 0;
855             afs_osi_Wakeup(&afs_WaitForCacheDrain);
856         }
857     }
858
859 } /*afs_DiscardDCache*/
860
861 /*
862  * afs_FreeDiscardedDCache
863  *
864  * Description:
865  *     Free the next element on the list of discarded cache elements.
866  */
867 static void afs_FreeDiscardedDCache(void)
868 {
869     register struct dcache *tdc;
870     register struct osi_file *tfile; 
871     register afs_int32 size;
872
873     AFS_STATCNT(afs_FreeDiscardedDCache);
874
875     MObtainWriteLock(&afs_xdcache,510);
876     if (!afs_blocksDiscarded) {
877         MReleaseWriteLock(&afs_xdcache);
878         return;
879     }
880
881     /*
882      * Get an entry from the list of discarded cache elements
883      */
884     tdc = afs_GetDSlot(afs_discardDCList, 0);
885     osi_Assert(tdc->refCount == 1);
886     ReleaseReadLock(&tdc->tlock);
887
888     afs_discardDCList = afs_dvnextTbl[tdc->index];
889     afs_dvnextTbl[tdc->index] = NULLIDX;
890     afs_discardDCCount--;
891     size = ((tdc->f.chunkBytes + afs_fsfragsize)^afs_fsfragsize)>>10;/* round up */
892     afs_blocksDiscarded -= size;
893     afs_stats_cmperf.cacheBlocksDiscarded = afs_blocksDiscarded;
894     /* We can lock because we just took it off the free list */
895     ObtainWriteLock(&tdc->lock, 626);
896     MReleaseWriteLock(&afs_xdcache);
897
898     /*
899      * Truncate the element to reclaim its space
900      */
901     tfile = afs_CFileOpen(tdc->f.inode);
902     afs_CFileTruncate(tfile, 0);
903     afs_CFileClose(tfile);
904     afs_AdjustSize(tdc, 0);
905
906     /*
907      * Free the element we just truncated
908      */
909     MObtainWriteLock(&afs_xdcache,511);
910     afs_indexFlags[tdc->index] &= ~IFDiscarded;
911     afs_FreeDCache(tdc);
912     ReleaseWriteLock(&tdc->lock);
913     afs_PutDCache(tdc);
914     MReleaseWriteLock(&afs_xdcache);
915 }
916
917 /*
918  * afs_MaybeFreeDiscardedDCache
919  *
920  * Description:
921  *      Free as many entries from the list of discarded cache elements
922  *      as we need to get the free space down below CM_WAITFORDRAINPCT (98%).
923  *
924  * Parameters:
925  *      None
926  */
927 int afs_MaybeFreeDiscardedDCache(void)
928 {
929
930     AFS_STATCNT(afs_MaybeFreeDiscardedDCache);
931
932     while (afs_blocksDiscarded &&
933            (afs_blocksUsed > (CM_WAITFORDRAINPCT*afs_cacheBlocks)/100)) {
934         afs_FreeDiscardedDCache();
935     }
936     return 0;
937 }
938
939 /*
940  * afs_GetDownDSlot
941  *
942  * Description:
943  *      Try to free up a certain number of disk slots.
944  *
945  * Parameters:
946  *      anumber : Targeted number of disk slots to free up.
947  *
948  * Environment:
949  *      Must be called with afs_xdcache write-locked.
950  */
951 static void afs_GetDownDSlot(int anumber)
952 {
953     struct afs_q *tq, *nq;
954     struct dcache *tdc;
955     int ix;
956     unsigned int cnt;
957
958     AFS_STATCNT(afs_GetDownDSlot);
959     if (cacheDiskType == AFS_FCACHE_TYPE_MEM)
960         osi_Panic("diskless getdowndslot");
961
962     if (CheckLock(&afs_xdcache) != -1)
963         osi_Panic("getdowndslot nolock");
964
965     /* decrement anumber first for all dudes in free list */
966     for(tdc = afs_freeDSList; tdc; tdc = (struct dcache *)tdc->lruq.next)
967         anumber--;
968     if (anumber <= 0)
969         return;                         /* enough already free */
970
971     for(cnt=0, tq = afs_DLRU.prev; tq != &afs_DLRU && anumber > 0;
972         tq = nq, cnt++) {
973         tdc = (struct dcache *) tq;     /* q is first elt in dcache entry */
974         nq = QPrev(tq); /* in case we remove it */
975         if (tdc->refCount == 0) {
976             if ((ix=tdc->index) == NULLIDX) osi_Panic("getdowndslot");
977             /* pull the entry out of the lruq and put it on the free list */
978             QRemove(&tdc->lruq);
979
980             /* write-through if modified */
981             if (tdc->dflags & DFEntryMod) {
982 #if defined(AFS_SGI_ENV) && defined(AFS_SGI_SHORTSTACK)
983                 /*
984                  * ask proxy to do this for us - we don't have the stack space
985                  */
986                 while (tdc->dflags & DFEntryMod) {
987                     int s;
988                     AFS_GUNLOCK();
989                     s = SPLOCK(afs_sgibklock);
990                     if (afs_sgibklist == NULL) {
991                         /* if slot is free, grab it. */
992                         afs_sgibklist = tdc;
993                         SV_SIGNAL(&afs_sgibksync);
994                     }
995                     /* wait for daemon to (start, then) finish. */
996                     SP_WAIT(afs_sgibklock, s, &afs_sgibkwait, PINOD);
997                     AFS_GLOCK();
998                 }
999 #else
1000                 tdc->dflags &= ~DFEntryMod;
1001                 afs_WriteDCache(tdc, 1);
1002 #endif
1003             }
1004
1005             tdc->stamp = 0;
1006 #ifdef IHINT
1007              if (tdc->ihint) {
1008                  struct osi_file * f = (struct osi_file *)tdc->ihint;
1009                  tdc->ihint = 0;
1010                  afs_UFSClose(f);
1011                  nihints--;
1012              }
1013 #endif /* IHINT */
1014
1015
1016             /* finally put the entry in the free list */
1017             afs_indexTable[ix] = NULL;
1018             afs_indexFlags[ix] &= ~IFEverUsed;
1019             tdc->index = NULLIDX;
1020             tdc->lruq.next = (struct afs_q *) afs_freeDSList;
1021             afs_freeDSList = tdc;
1022             anumber--;
1023         }
1024     }
1025 } /*afs_GetDownDSlot*/
1026
1027
1028 /*
1029  * afs_RefDCache
1030  *
1031  * Description:
1032  *      Increment the reference count on a disk cache entry,
1033  *      which already has a non-zero refcount.  In order to
1034  *      increment the refcount of a zero-reference entry, you
1035  *      have to hold afs_xdcache.
1036  *
1037  * Parameters:
1038  *      adc : Pointer to the dcache entry to increment.
1039  *
1040  * Environment:
1041  *      Nothing interesting.
1042  */
1043 int afs_RefDCache(struct dcache *adc)
1044 {
1045     ObtainWriteLock(&adc->tlock, 627);
1046     if (adc->refCount < 0)
1047         osi_Panic("RefDCache: negative refcount");
1048     adc->refCount++;
1049     ReleaseWriteLock(&adc->tlock);
1050     return 0;
1051 }
1052
1053
1054 /*
1055  * afs_PutDCache
1056  *
1057  * Description:
1058  *      Decrement the reference count on a disk cache entry.
1059  *
1060  * Parameters:
1061  *      ad : Ptr to the dcache entry to decrement.
1062  *
1063  * Environment:
1064  *      Nothing interesting.
1065  */
1066 int afs_PutDCache(register struct dcache *adc)
1067 {
1068     AFS_STATCNT(afs_PutDCache);
1069     ObtainWriteLock(&adc->tlock, 276);
1070     if (adc->refCount <= 0)
1071         osi_Panic("putdcache");
1072     --adc->refCount;
1073     ReleaseWriteLock(&adc->tlock);
1074     return 0;
1075 }
1076
1077
1078 /*
1079  * afs_TryToSmush
1080  *
1081  * Description:
1082  *      Try to discard all data associated with this file from the
1083  *      cache.
1084  *
1085  * Parameters:
1086  *      avc : Pointer to the cache info for the file.
1087  *
1088  * Environment:
1089  *      Both pvnLock and lock are write held.
1090  */
1091 void afs_TryToSmush(register struct vcache *avc, struct AFS_UCRED *acred, 
1092         int sync)
1093 {
1094     register struct dcache *tdc;
1095     register int index;
1096     register int i;
1097     AFS_STATCNT(afs_TryToSmush);
1098     afs_Trace2(afs_iclSetp, CM_TRACE_TRYTOSMUSH, ICL_TYPE_POINTER, avc,
1099                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(avc->m.Length));
1100     sync = 1;                           /* XX Temp testing XX*/
1101
1102 #if     defined(AFS_SUN5_ENV)
1103     ObtainWriteLock(&avc->vlock, 573);
1104     avc->activeV++;     /* block new getpages */
1105     ReleaseWriteLock(&avc->vlock);
1106 #endif
1107
1108     /* Flush VM pages */
1109     osi_VM_TryToSmush(avc, acred, sync);
1110
1111     /*
1112      * Get the hash chain containing all dce's for this fid
1113      */
1114     i = DVHash(&avc->fid);
1115     MObtainWriteLock(&afs_xdcache,277);
1116     for(index = afs_dvhashTbl[i]; index != NULLIDX; index=i) {
1117       i = afs_dvnextTbl[index]; /* next pointer this hash table */
1118       if (afs_indexUnique[index] == avc->fid.Fid.Unique) {
1119         int releaseTlock = 1;
1120         tdc = afs_GetDSlot(index, NULL);
1121         if (!FidCmp(&tdc->f.fid, &avc->fid)) {
1122             if (sync) {
1123                 if ((afs_indexFlags[index] & IFDataMod) == 0 &&
1124                     tdc->refCount == 1) {
1125                     ReleaseReadLock(&tdc->tlock);
1126                     releaseTlock = 0;
1127                     afs_FlushDCache(tdc);
1128                 }
1129             } else
1130                 afs_indexTable[index] = 0;
1131         }
1132         if (releaseTlock) ReleaseReadLock(&tdc->tlock);
1133         afs_PutDCache(tdc);
1134       }
1135     }
1136 #if     defined(AFS_SUN5_ENV)
1137     ObtainWriteLock(&avc->vlock, 545);
1138     if (--avc->activeV == 0 && (avc->vstates & VRevokeWait)) {
1139         avc->vstates &= ~VRevokeWait;
1140         afs_osi_Wakeup((char *)&avc->vstates);
1141     }
1142     ReleaseWriteLock(&avc->vlock);
1143 #endif
1144     MReleaseWriteLock(&afs_xdcache);
1145     /*
1146      * It's treated like a callback so that when we do lookups we'll invalidate the unique bit if any
1147      * trytoSmush occured during the lookup call
1148      */
1149     afs_allCBs++;
1150 }
1151
1152 /*
1153  * afs_FindDCache
1154  *
1155  * Description:
1156  *      Given the cached info for a file and a byte offset into the
1157  *      file, make sure the dcache entry for that file and containing
1158  *      the given byte is available, returning it to our caller.
1159  *
1160  * Parameters:
1161  *      avc   : Pointer to the (held) vcache entry to look in.
1162  *      abyte : Which byte we want to get to.
1163  *
1164  * Returns:
1165  *      Pointer to the dcache entry covering the file & desired byte,
1166  *      or NULL if not found.
1167  *
1168  * Environment:
1169  *      The vcache entry is held upon entry.
1170  */
1171
1172 struct dcache *afs_FindDCache(register struct vcache *avc, afs_size_t abyte)
1173 {
1174     afs_int32 chunk;
1175     register afs_int32 i, index;
1176     register struct dcache *tdc;
1177
1178     AFS_STATCNT(afs_FindDCache);
1179     chunk = AFS_CHUNK(abyte);
1180
1181     /*
1182      * Hash on the [fid, chunk] and get the corresponding dcache index
1183      * after write-locking the dcache.
1184      */
1185     i = DCHash(&avc->fid, chunk);
1186     MObtainWriteLock(&afs_xdcache,278);
1187     for(index = afs_dchashTbl[i]; index != NULLIDX;) {
1188       if (afs_indexUnique[index] == avc->fid.Fid.Unique) {
1189         tdc = afs_GetDSlot(index, NULL);
1190         ReleaseReadLock(&tdc->tlock);
1191         if (!FidCmp(&tdc->f.fid, &avc->fid) && chunk == tdc->f.chunk) {
1192             break;  /* leaving refCount high for caller */
1193         }
1194         afs_PutDCache(tdc);
1195       }
1196       index = afs_dcnextTbl[index];
1197     }
1198     MReleaseWriteLock(&afs_xdcache);
1199     if (index != NULLIDX) {
1200         hset(afs_indexTimes[tdc->index], afs_indexCounter);
1201         hadd32(afs_indexCounter, 1);
1202         return tdc;
1203     }
1204     else
1205         return NULL;
1206
1207 } /*afs_FindDCache*/
1208
1209
1210 /*
1211  * afs_UFSCacheStoreProc
1212  *
1213  * Description:
1214  *      Called upon store.
1215  *
1216  * Parameters:
1217  *      acall : Ptr to the Rx call structure involved.
1218  *      afile : Ptr to the related file descriptor.
1219  *      alen  : Size of the file in bytes.
1220  *      avc   : Ptr to the vcache entry.
1221  *      shouldWake : is it "safe" to return early from close() ?
1222  *      abytesToXferP  : Set to the number of bytes to xfer.
1223  *                       NOTE: This parameter is only used if AFS_NOSTATS
1224  *                              is not defined.
1225  *      abytesXferredP : Set to the number of bytes actually xferred.
1226  *                       NOTE: This parameter is only used if AFS_NOSTATS
1227  *                              is not defined.
1228  *
1229  * Environment:
1230  *      Nothing interesting.
1231  */
1232 static int afs_UFSCacheStoreProc(register struct rx_call *acall, 
1233         struct osi_file *afile, register afs_int32 alen, struct vcache *avc, 
1234         int *shouldWake, afs_size_t *abytesToXferP, afs_size_t *abytesXferredP)
1235 {
1236     afs_int32 code, got;
1237     register char *tbuffer;
1238     register int tlen;
1239
1240     AFS_STATCNT(UFS_CacheStoreProc);
1241
1242 #ifndef AFS_NOSTATS
1243     /*
1244      * In this case, alen is *always* the amount of data we'll be trying
1245      * to ship here.
1246      */
1247     (*abytesToXferP)  = alen;
1248     (*abytesXferredP) = 0;
1249 #endif /* AFS_NOSTATS */
1250
1251     afs_Trace4(afs_iclSetp, CM_TRACE_STOREPROC, ICL_TYPE_POINTER, avc,
1252                         ICL_TYPE_FID, &(avc->fid),
1253                         ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(avc->m.Length), 
1254                         ICL_TYPE_INT32, alen);
1255     tbuffer = osi_AllocLargeSpace(AFS_LRALLOCSIZ);
1256     while (alen > 0) {
1257         tlen = (alen > AFS_LRALLOCSIZ ? AFS_LRALLOCSIZ : alen);
1258         got = afs_osi_Read(afile, -1, tbuffer, tlen);
1259         if ((got < 0) 
1260 #if defined(KERNEL_HAVE_UERROR)
1261             || (got != tlen && getuerror())
1262 #endif
1263             ) {
1264             osi_FreeLargeSpace(tbuffer);
1265             return EIO;
1266         }
1267         afs_Trace2(afs_iclSetp, CM_TRACE_STOREPROC2, 
1268                         ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(*tbuffer),
1269                         ICL_TYPE_INT32, got);
1270         RX_AFS_GUNLOCK();
1271         code = rx_Write(acall, tbuffer, got);  /* writing 0 bytes will
1272         * push a short packet.  Is that really what we want, just because the
1273         * data didn't come back from the disk yet?  Let's try it and see. */
1274         RX_AFS_GLOCK();
1275 #ifndef AFS_NOSTATS
1276         (*abytesXferredP) += code;
1277 #endif /* AFS_NOSTATS */
1278         if (code != got) {
1279             osi_FreeLargeSpace(tbuffer);
1280             return -33;
1281         }
1282         alen -= got;
1283         /*
1284          * If file has been locked on server, we can allow the store
1285          * to continue.
1286          */
1287         if (shouldWake && *shouldWake && (rx_GetRemoteStatus(acall) & 1)) {
1288             *shouldWake = 0;  /* only do this once */
1289             afs_wakeup(avc);
1290         }
1291     }
1292     afs_Trace4(afs_iclSetp, CM_TRACE_STOREPROC, ICL_TYPE_POINTER, avc,
1293                         ICL_TYPE_FID, &(avc->fid),
1294                         ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(avc->m.Length), 
1295                         ICL_TYPE_INT32, alen);
1296     osi_FreeLargeSpace(tbuffer);
1297     return 0;
1298
1299 } /* afs_UFSCacheStoreProc*/
1300
1301
1302 /*
1303  * afs_UFSCacheFetchProc
1304  *
1305  * Description:
1306  *      Routine called on fetch; also tells people waiting for data
1307  *      that more has arrived.
1308  *
1309  * Parameters:
1310  *      acall : Ptr to the Rx call structure.
1311  *      afile : File descriptor for the cache file.
1312  *      abase : Base offset to fetch.
1313  *      adc   : Ptr to the dcache entry for the file, write-locked.
1314  *      avc   : Ptr to the vcache entry for the file.
1315  *      abytesToXferP  : Set to the number of bytes to xfer.
1316  *                       NOTE: This parameter is only used if AFS_NOSTATS
1317  *                              is not defined.
1318  *      abytesXferredP : Set to the number of bytes actually xferred.
1319  *                       NOTE: This parameter is only used if AFS_NOSTATS
1320  *                              is not defined.
1321  *
1322  * Environment:
1323  *      Nothing interesting.
1324  */
1325
1326 static int afs_UFSCacheFetchProc(register struct rx_call *acall, 
1327         struct osi_file *afile, afs_size_t abase, struct dcache *adc, 
1328         struct vcache *avc, afs_size_t *abytesToXferP, 
1329         afs_size_t *abytesXferredP, afs_int32 lengthFound)
1330 {
1331     afs_int32 length;
1332     register afs_int32 code;
1333     register char *tbuffer;
1334     register int tlen;
1335     int moredata = 0;
1336
1337     AFS_STATCNT(UFS_CacheFetchProc);
1338     osi_Assert(WriteLocked(&adc->lock));
1339     afile->offset = 0;  /* Each time start from the beginning */
1340     length = lengthFound;
1341 #ifndef AFS_NOSTATS
1342     (*abytesToXferP)  = 0;
1343     (*abytesXferredP) = 0;
1344 #endif /* AFS_NOSTATS */
1345     tbuffer = osi_AllocLargeSpace(AFS_LRALLOCSIZ);
1346     adc->validPos = abase;
1347     do {
1348         if (moredata) {
1349             RX_AFS_GUNLOCK();
1350             code = rx_Read(acall, (char *)&length, sizeof(afs_int32));
1351             RX_AFS_GLOCK();
1352             length = ntohl(length);
1353             if (code != sizeof(afs_int32)) {
1354                 osi_FreeLargeSpace(tbuffer);
1355                 code = rx_Error(acall);
1356                 return (code?code:-1);      /* try to return code, not -1 */
1357             }    
1358         }
1359         /*
1360          * The fetch protocol is extended for the AFS/DFS translator
1361          * to allow multiple blocks of data, each with its own length,
1362          * to be returned. As long as the top bit is set, there are more
1363          * blocks expected.
1364          *
1365          * We do not do this for AFS file servers because they sometimes
1366          * return large negative numbers as the transfer size.
1367          */
1368         if (avc->states & CForeign) {
1369             moredata = length & 0x80000000;
1370             length &= ~0x80000000;
1371         } else {
1372             moredata = 0;
1373         }
1374 #ifndef AFS_NOSTATS
1375         (*abytesToXferP) += length;
1376 #endif                          /* AFS_NOSTATS */
1377         while (length > 0) {
1378             tlen = (length > AFS_LRALLOCSIZ ? AFS_LRALLOCSIZ : length);
1379 #ifdef RX_KERNEL_TRACE
1380             afs_Trace1(afs_iclSetp, CM_TRACE_TIMESTAMP,
1381                         ICL_TYPE_STRING, "before rx_Read");
1382 #endif
1383             RX_AFS_GUNLOCK();
1384             code = rx_Read(acall, tbuffer, tlen);
1385             RX_AFS_GLOCK();
1386 #ifdef RX_KERNEL_TRACE
1387             afs_Trace1(afs_iclSetp, CM_TRACE_TIMESTAMP,
1388                         ICL_TYPE_STRING, "after rx_Read");
1389 #endif
1390 #ifndef AFS_NOSTATS
1391             (*abytesXferredP) += code;
1392 #endif                          /* AFS_NOSTATS */
1393             if (code != tlen) {
1394                 osi_FreeLargeSpace(tbuffer);
1395                 afs_Trace3(afs_iclSetp, CM_TRACE_FETCH64READ,
1396                         ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code,
1397                         ICL_TYPE_INT32, length);
1398                 return -34;
1399             }
1400             code = afs_osi_Write(afile, -1, tbuffer, tlen);
1401             if (code != tlen) {
1402                 osi_FreeLargeSpace(tbuffer);
1403                 return EIO;
1404             }
1405             abase += tlen;
1406             length -= tlen;
1407             adc->validPos = abase;
1408 #ifdef AFS_AIX_ENV          
1409             if (afs_osi_Wakeup(&adc->validPos) == 0)
1410                 afs_Trace4(afs_iclSetp, CM_TRACE_DCACHEWAKE,
1411                            ICL_TYPE_STRING, __FILE__,
1412                            ICL_TYPE_INT32, __LINE__,
1413                            ICL_TYPE_POINTER, adc,
1414                            ICL_TYPE_INT32, adc->dflags);
1415 #else
1416             afs_osi_Wakeup(&adc->validPos);
1417 #endif
1418         }
1419     } while (moredata);
1420     osi_FreeLargeSpace(tbuffer);
1421     return 0;
1422
1423 } /* afs_UFSCacheFetchProc*/
1424
1425 /*
1426  * afs_GetDCache
1427  *
1428  * Description:
1429  *      This function is called to obtain a reference to data stored in
1430  *      the disk cache, locating a chunk of data containing the desired
1431  *      byte and returning a reference to the disk cache entry, with its
1432  *      reference count incremented.
1433  *
1434  * Parameters:
1435  * IN:
1436  *      avc     : Ptr to a vcache entry (unlocked)
1437  *      abyte   : Byte position in the file desired
1438  *      areq    : Request structure identifying the requesting user.
1439  *      aflags  : Settings as follows:
1440  *                      1 : Set locks
1441  *                      2 : Return after creating entry.
1442  *                      4 : called from afs_vnop_write.c
1443  *                          *alen contains length of data to be written.
1444  * OUT:
1445  *      aoffset : Set to the offset within the chunk where the resident
1446  *                byte is located.
1447  *      alen    : Set to the number of bytes of data after the desired
1448  *                byte (including the byte itself) which can be read
1449  *                from this chunk.
1450  *
1451  * Environment:
1452  *      The vcache entry pointed to by avc is unlocked upon entry.
1453  */
1454
1455 struct tlocal1 {
1456     struct AFSVolSync tsync;
1457     struct AFSFetchStatus OutStatus;
1458     struct AFSCallBack CallBack;
1459 };
1460
1461 /*
1462  * Update the vnode-to-dcache hint if we can get the vnode lock
1463  * right away.  Assumes dcache entry is at least read-locked.
1464  */
1465 void updateV2DC(int lockVc, struct vcache *v, struct dcache *d, int src)
1466 {
1467     if (!lockVc || 0 == NBObtainWriteLock(&v->lock,src)) {
1468         if (hsame(v->m.DataVersion, d->f.versionNo) && v->callback) {
1469             v->quick.dc = d;
1470             v->quick.stamp = d->stamp = MakeStamp();
1471             v->quick.minLoc = AFS_CHUNKTOBASE(d->f.chunk);
1472             /* Don't think I need these next two lines forever */
1473             v->quick.len = d->f.chunkBytes;
1474             v->h1.dchint = d;
1475         }
1476         if (lockVc) ReleaseWriteLock(&v->lock);
1477     }
1478 }
1479
1480 /* avc - Write-locked unless aflags & 1 */
1481 struct dcache *afs_GetDCache(register struct vcache *avc, afs_size_t abyte, 
1482         register struct vrequest *areq, afs_size_t *aoffset, afs_size_t *alen, 
1483         int aflags)
1484 {
1485     register afs_int32 i, code, code1=0, shortcut, adjustsize=0;
1486     int setLocks;
1487     afs_int32 index;
1488     afs_int32 us;
1489     afs_int32 chunk;
1490     afs_size_t maxGoodLength;           /* amount of good data at server */
1491     struct rx_call *tcall;
1492     afs_size_t Position = 0;
1493 #ifdef AFS_64BIT_CLIENT
1494     afs_size_t tsize;
1495     afs_size_t lengthFound;             /* as returned from server */
1496 #endif /* AFS_64BIT_CLIENT */
1497     afs_int32 size, tlen;               /* size of segment to transfer */
1498     struct tlocal1 *tsmall = 0;
1499     register struct dcache *tdc;
1500     register struct osi_file *file;
1501     register struct conn *tc;
1502     int downDCount = 0;
1503     struct server *newCallback;
1504     char setNewCallback;
1505     char setVcacheStatus;
1506     char doVcacheUpdate;
1507     char slowPass = 0;
1508     int doAdjustSize = 0;
1509     int doReallyAdjustSize = 0;
1510     int overWriteWholeChunk = 0;
1511
1512     XSTATS_DECLS
1513 #ifndef AFS_NOSTATS
1514     struct afs_stats_xferData *xferP;   /* Ptr to this op's xfer struct */
1515     osi_timeval_t  xferStartTime,       /*FS xfer start time*/
1516                    xferStopTime;        /*FS xfer stop time*/
1517     afs_size_t bytesToXfer;                     /* # bytes to xfer*/
1518     afs_size_t bytesXferred;                    /* # bytes actually xferred*/
1519     struct afs_stats_AccessInfo *accP;  /*Ptr to access record in stats*/
1520     int fromReplica;                    /*Are we reading from a replica?*/
1521     int numFetchLoops;                  /*# times around the fetch/analyze loop*/
1522 #endif /* AFS_NOSTATS */
1523
1524     AFS_STATCNT(afs_GetDCache);
1525
1526     if (dcacheDisabled)
1527         return NULL;
1528
1529     setLocks = aflags & 1;
1530
1531     /*
1532      * Determine the chunk number and offset within the chunk corresponding
1533      * to the desired byte.
1534      */
1535     if (avc->fid.Fid.Vnode & 1) { /* if (vType(avc) == VDIR) */
1536         chunk = 0;
1537     }
1538     else {
1539         chunk = AFS_CHUNK(abyte);
1540     }
1541
1542     /* come back to here if we waited for the cache to drain. */
1543 RetryGetDCache:
1544
1545     setNewCallback = setVcacheStatus = 0;
1546
1547     if (setLocks) {
1548         if (slowPass)
1549             ObtainWriteLock(&avc->lock, 616);
1550         else
1551             ObtainReadLock(&avc->lock);
1552     }
1553
1554     /*
1555      * Locks held:
1556      * avc->lock(R) if setLocks && !slowPass
1557      * avc->lock(W) if !setLocks || slowPass
1558      */
1559
1560     shortcut = 0;
1561
1562     /* check hints first! (might could use bcmp or some such...) */
1563     if ((tdc = avc->h1.dchint)) {
1564         int dcLocked;
1565
1566         /*
1567          * The locking order between afs_xdcache and dcache lock matters.
1568          * The hint dcache entry could be anywhere, even on the free list.
1569          * Locking afs_xdcache ensures that noone is trying to pull dcache
1570          * entries from the free list, and thereby assuming them to be not
1571          * referenced and not locked.
1572          */
1573         MObtainReadLock(&afs_xdcache);
1574         dcLocked = (0 == NBObtainSharedLock(&tdc->lock, 601));
1575
1576         if (dcLocked &&
1577             (tdc->index != NULLIDX) && !FidCmp(&tdc->f.fid, &avc->fid) &&
1578             chunk == tdc->f.chunk &&
1579             !(afs_indexFlags[tdc->index] & (IFFree|IFDiscarded))) {
1580             /* got the right one.  It might not be the right version, and it 
1581              * might be fetching, but it's the right dcache entry.
1582              */
1583             /* All this code should be integrated better with what follows:
1584              * I can save a good bit more time under a write lock if I do..
1585              */
1586             ObtainWriteLock(&tdc->tlock, 603);
1587             tdc->refCount++;
1588             ReleaseWriteLock(&tdc->tlock);
1589
1590             MReleaseReadLock(&afs_xdcache);
1591             shortcut = 1;
1592
1593             if (hsame(tdc->f.versionNo, avc->m.DataVersion) &&
1594                 !(tdc->dflags & DFFetching)) {
1595
1596                 afs_stats_cmperf.dcacheHits++;
1597                 MObtainWriteLock(&afs_xdcache, 559);
1598                 QRemove(&tdc->lruq);
1599                 QAdd(&afs_DLRU, &tdc->lruq);
1600                 MReleaseWriteLock(&afs_xdcache);
1601
1602                 /* Locks held:
1603                  * avc->lock(R) if setLocks && !slowPass
1604                  * avc->lock(W) if !setLocks || slowPass
1605                  * tdc->lock(S)
1606                  */
1607                 goto done;
1608             }
1609         } else {
1610             if (dcLocked) ReleaseSharedLock(&tdc->lock);
1611             MReleaseReadLock(&afs_xdcache);
1612         }
1613
1614         if (!shortcut)
1615             tdc = 0;
1616     }
1617
1618     /* Locks held:
1619      * avc->lock(R) if setLocks && !slowPass
1620      * avc->lock(W) if !setLocks || slowPass
1621      * tdc->lock(S) if tdc
1622      */
1623
1624     if (!tdc) { /* If the hint wasn't the right dcache entry */
1625         /*
1626          * Hash on the [fid, chunk] and get the corresponding dcache index
1627          * after write-locking the dcache.
1628          */
1629 RetryLookup:
1630
1631         /* Locks held:
1632          * avc->lock(R) if setLocks && !slowPass
1633          * avc->lock(W) if !setLocks || slowPass
1634          */
1635
1636         i = DCHash(&avc->fid, chunk);
1637         /* check to make sure our space is fine */
1638         afs_MaybeWakeupTruncateDaemon();
1639
1640         MObtainWriteLock(&afs_xdcache,280);
1641         us = NULLIDX;
1642         for (index = afs_dchashTbl[i]; index != NULLIDX; ) {
1643             if (afs_indexUnique[index] == avc->fid.Fid.Unique) {
1644                 tdc = afs_GetDSlot(index, NULL);
1645                 ReleaseReadLock(&tdc->tlock);
1646                 /*
1647                  * Locks held:
1648                  * avc->lock(R) if setLocks && !slowPass
1649                  * avc->lock(W) if !setLocks || slowPass
1650                  * afs_xdcache(W)
1651                  */
1652                 if (!FidCmp(&tdc->f.fid, &avc->fid) && chunk == tdc->f.chunk) {
1653                     /* Move it up in the beginning of the list */
1654                     if (afs_dchashTbl[i] != index)  {
1655                         afs_dcnextTbl[us] = afs_dcnextTbl[index];
1656                         afs_dcnextTbl[index] = afs_dchashTbl[i];
1657                         afs_dchashTbl[i] = index;
1658                     }
1659                     MReleaseWriteLock(&afs_xdcache);
1660                     ObtainSharedLock(&tdc->lock, 606);
1661                     break;  /* leaving refCount high for caller */
1662                 }
1663                 afs_PutDCache(tdc);
1664                 tdc = 0;
1665             }
1666             us = index;
1667             index = afs_dcnextTbl[index];
1668         }
1669
1670         /*
1671          * If we didn't find the entry, we'll create one.
1672          */
1673         if (index == NULLIDX) {
1674             /*
1675              * Locks held:
1676              * avc->lock(R) if setLocks
1677              * avc->lock(W) if !setLocks
1678              * afs_xdcache(W)
1679              */
1680             afs_Trace2(afs_iclSetp, CM_TRACE_GETDCACHE1, ICL_TYPE_POINTER,
1681                        avc, ICL_TYPE_INT32, chunk);
1682
1683             /* Make sure there is a free dcache entry for us to use */
1684             if (afs_discardDCList == NULLIDX && afs_freeDCList == NULLIDX) {
1685                 while (1) {
1686                     if (!setLocks) avc->states |= CDCLock;
1687                     afs_GetDownD(5, (int*)0);   /* just need slots */
1688                     if (!setLocks) avc->states &= ~CDCLock;
1689                     if (afs_discardDCList != NULLIDX || afs_freeDCList != NULLIDX)
1690                         break;
1691                     /* If we can't get space for 5 mins we give up and panic */
1692                     if (++downDCount > 300)
1693                         osi_Panic("getdcache"); 
1694                     MReleaseWriteLock(&afs_xdcache);
1695                     /*
1696                      * Locks held:
1697                      * avc->lock(R) if setLocks
1698                      * avc->lock(W) if !setLocks
1699                      */
1700                     afs_osi_Wait(1000, 0, 0);
1701                     goto RetryLookup;
1702                 }
1703             }
1704
1705             if (afs_discardDCList == NULLIDX ||
1706                 ((aflags & 2) && afs_freeDCList != NULLIDX)) {
1707
1708                 afs_indexFlags[afs_freeDCList] &= ~IFFree;
1709                 tdc = afs_GetDSlot(afs_freeDCList, 0);
1710                 osi_Assert(tdc->refCount == 1);
1711                 ReleaseReadLock(&tdc->tlock);
1712                 ObtainWriteLock(&tdc->lock, 604);
1713                 afs_freeDCList = afs_dvnextTbl[tdc->index];
1714                 afs_freeDCCount--;
1715             } else {
1716                 afs_indexFlags[afs_discardDCList] &= ~IFDiscarded;
1717                 tdc = afs_GetDSlot(afs_discardDCList, 0);
1718                 osi_Assert(tdc->refCount == 1);
1719                 ReleaseReadLock(&tdc->tlock);
1720                 ObtainWriteLock(&tdc->lock, 605);
1721                 afs_discardDCList = afs_dvnextTbl[tdc->index];
1722                 afs_discardDCCount--;
1723                 size = ((tdc->f.chunkBytes + afs_fsfragsize)^afs_fsfragsize)>>10;
1724                 afs_blocksDiscarded -= size;
1725                 afs_stats_cmperf.cacheBlocksDiscarded = afs_blocksDiscarded;
1726                 if (aflags & 2) {
1727                     /* Truncate the chunk so zeroes get filled properly */
1728                     file = afs_CFileOpen(tdc->f.inode);
1729                     afs_CFileTruncate(file, 0);
1730                     afs_CFileClose(file);
1731                     afs_AdjustSize(tdc, 0);
1732                 }
1733             }
1734
1735             /*
1736              * Locks held:
1737              * avc->lock(R) if setLocks
1738              * avc->lock(W) if !setLocks
1739              * tdc->lock(W)
1740              * afs_xdcache(W)
1741              */
1742
1743             /*
1744              * Fill in the newly-allocated dcache record.
1745              */
1746             afs_indexFlags[tdc->index] &= ~(IFDirtyPages | IFAnyPages);
1747             tdc->f.fid = avc->fid;
1748             afs_indexUnique[tdc->index] = tdc->f.fid.Fid.Unique;
1749             hones(tdc->f.versionNo);        /* invalid value */
1750             tdc->f.chunk = chunk;
1751             tdc->validPos = AFS_CHUNKTOBASE(chunk);
1752             /* XXX */
1753             if (tdc->lruq.prev == &tdc->lruq) osi_Panic("lruq 1");
1754
1755             /*
1756              * Now add to the two hash chains - note that i is still set
1757              * from the above DCHash call.
1758              */
1759             afs_dcnextTbl[tdc->index] = afs_dchashTbl[i];
1760             afs_dchashTbl[i] = tdc->index;
1761             i = DVHash(&avc->fid);
1762             afs_dvnextTbl[tdc->index] = afs_dvhashTbl[i];
1763             afs_dvhashTbl[i] = tdc->index;
1764             tdc->dflags = DFEntryMod;
1765             tdc->mflags = 0;
1766             tdc->f.states = 0;
1767             afs_MaybeWakeupTruncateDaemon();
1768             MReleaseWriteLock(&afs_xdcache);
1769             ConvertWToSLock(&tdc->lock);
1770         }
1771     } /* vcache->dcache hint failed */
1772
1773     /*
1774      * Locks held:
1775      * avc->lock(R) if setLocks && !slowPass
1776      * avc->lock(W) if !setLocks || slowPass
1777      * tdc->lock(S)
1778      */
1779
1780     afs_Trace4(afs_iclSetp, CM_TRACE_GETDCACHE2, ICL_TYPE_POINTER, avc,
1781                ICL_TYPE_POINTER, tdc,
1782                ICL_TYPE_INT32, hgetlo(tdc->f.versionNo),
1783                ICL_TYPE_INT32, hgetlo(avc->m.DataVersion));
1784     /*
1785      * Here we have the entry in tdc, with its refCount incremented.
1786      * Note: we don't use the S-lock on avc; it costs concurrency when
1787      * storing a file back to the server.
1788      */
1789
1790     /*
1791      * Not a newly created file so we need to check the file's length and
1792      * compare data versions since someone could have changed the data or we're
1793      * reading a file written elsewhere. We only want to bypass doing no-op
1794      * read rpcs on newly created files (dv of 0) since only then we guarantee
1795      * that this chunk's data hasn't been filled by another client.
1796      */
1797     size = AFS_CHUNKSIZE(abyte);
1798     if (aflags & 4)     /* called from write */
1799         tlen = *alen;
1800     else                /* called from read */
1801         tlen = tdc->validPos - abyte;
1802     Position = AFS_CHUNKTOBASE(chunk);
1803     afs_Trace4(afs_iclSetp, CM_TRACE_GETDCACHE3, 
1804                ICL_TYPE_INT32, tlen,
1805                ICL_TYPE_INT32, aflags,
1806                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(abyte),
1807                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(Position));
1808     if ((aflags & 4) && (hiszero(avc->m.DataVersion)))
1809         doAdjustSize = 1;
1810     if ((aflags & 4) && (abyte == Position) && (tlen >= size))
1811         overWriteWholeChunk = 1;
1812     if (doAdjustSize || overWriteWholeChunk) {
1813 #if     defined(AFS_AIX32_ENV) || defined(AFS_SGI_ENV)
1814 #ifdef  AFS_SGI_ENV
1815 #ifdef AFS_SGI64_ENV
1816         if (doAdjustSize) adjustsize = NBPP;
1817 #else /* AFS_SGI64_ENV */
1818         if (doAdjustSize) adjustsize = 8192;
1819 #endif /* AFS_SGI64_ENV */
1820 #else /* AFS_SGI_ENV */
1821         if (doAdjustSize) adjustsize = 4096;
1822 #endif /* AFS_SGI_ENV */
1823         if (AFS_CHUNKTOBASE(chunk)+adjustsize >= avc->m.Length &&
1824 #else /* defined(AFS_AIX32_ENV) || defined(AFS_SGI_ENV) */
1825 #if     defined(AFS_SUN_ENV)  || defined(AFS_OSF_ENV)
1826         if ((doAdjustSize || (AFS_CHUNKTOBASE(chunk) >= avc->m.Length)) &&
1827 #else
1828         if (AFS_CHUNKTOBASE(chunk) >= avc->m.Length &&
1829 #endif
1830 #endif /* defined(AFS_AIX32_ENV) || defined(AFS_SGI_ENV) */
1831         !hsame(avc->m.DataVersion, tdc->f.versionNo))
1832             doReallyAdjustSize = 1;
1833
1834         if (doReallyAdjustSize || overWriteWholeChunk) {
1835             /* no data in file to read at this position */
1836             UpgradeSToWLock(&tdc->lock, 607);
1837
1838             file = afs_CFileOpen(tdc->f.inode);
1839             afs_CFileTruncate(file, 0);
1840             afs_CFileClose(file);
1841             afs_AdjustSize(tdc, 0);
1842             hset(tdc->f.versionNo, avc->m.DataVersion);
1843             tdc->dflags |= DFEntryMod;
1844
1845             ConvertWToSLock(&tdc->lock);
1846         }
1847     }
1848
1849     /*
1850      * We must read in the whole chunk if the version number doesn't
1851      * match.
1852      */
1853     if (aflags & 2) {
1854         /* don't need data, just a unique dcache entry */
1855         ObtainWriteLock(&afs_xdcache, 608);
1856         hset(afs_indexTimes[tdc->index], afs_indexCounter);
1857         hadd32(afs_indexCounter, 1);
1858         ReleaseWriteLock(&afs_xdcache);
1859
1860         updateV2DC(setLocks, avc, tdc, 553);
1861         if (vType(avc) == VDIR)
1862             *aoffset = abyte;
1863         else
1864             *aoffset = AFS_CHUNKOFFSET(abyte);
1865         if (tdc->validPos < abyte)
1866             *alen = (afs_size_t) 0;
1867         else
1868             *alen = tdc->validPos - abyte;
1869         ReleaseSharedLock(&tdc->lock);
1870         if (setLocks) {
1871             if (slowPass)
1872                 ReleaseWriteLock(&avc->lock);
1873             else
1874                 ReleaseReadLock(&avc->lock);
1875         }
1876         return tdc;     /* check if we're done */
1877     }
1878
1879     /*
1880      * Locks held:
1881      * avc->lock(R) if setLocks && !slowPass
1882      * avc->lock(W) if !setLocks || slowPass
1883      * tdc->lock(S)
1884      */
1885     osi_Assert((setLocks && !slowPass) || WriteLocked(&avc->lock));
1886
1887     setNewCallback = setVcacheStatus = 0;
1888
1889     /*
1890      * Locks held:
1891      * avc->lock(R) if setLocks && !slowPass
1892      * avc->lock(W) if !setLocks || slowPass
1893      * tdc->lock(S)
1894      */
1895     if (!hsame(avc->m.DataVersion, tdc->f.versionNo) && !overWriteWholeChunk) {
1896         /*
1897          * Version number mismatch.
1898          */
1899         UpgradeSToWLock(&tdc->lock, 609);
1900
1901         /*
1902          * If data ever existed for this vnode, and this is a text object,
1903          * do some clearing.  Now, you'd think you need only do the flush
1904          * when VTEXT is on, but VTEXT is turned off when the text object
1905          * is freed, while pages are left lying around in memory marked
1906          * with this vnode.  If we would reactivate (create a new text
1907          * object from) this vnode, we could easily stumble upon some of
1908          * these old pages in pagein.  So, we always flush these guys.
1909          * Sun has a wonderful lack of useful invariants in this system.
1910          *
1911          * avc->flushDV is the data version # of the file at the last text
1912          * flush.  Clearly, at least, we don't have to flush the file more
1913          * often than it changes
1914          */
1915         if (hcmp(avc->flushDV, avc->m.DataVersion) < 0) {
1916             /*
1917              * By here, the cache entry is always write-locked.  We can
1918              * deadlock if we call osi_Flush with the cache entry locked...
1919              * Unlock the dcache too.
1920              */
1921             ReleaseWriteLock(&tdc->lock);
1922             if (setLocks && !slowPass)
1923                 ReleaseReadLock(&avc->lock);
1924             else
1925                 ReleaseWriteLock(&avc->lock);
1926
1927             osi_FlushText(avc);
1928             /*
1929              * Call osi_FlushPages in open, read/write, and map, since it
1930              * is too hard here to figure out if we should lock the
1931              * pvnLock.
1932              */
1933             if (setLocks && !slowPass)
1934                 ObtainReadLock(&avc->lock);
1935             else
1936                 ObtainWriteLock(&avc->lock, 66);
1937             ObtainWriteLock(&tdc->lock, 610);
1938         }
1939
1940         /*
1941          * Locks held:
1942          * avc->lock(R) if setLocks && !slowPass
1943          * avc->lock(W) if !setLocks || slowPass
1944          * tdc->lock(W)
1945          */
1946
1947         /* Watch for standard race condition around osi_FlushText */
1948         if (hsame(avc->m.DataVersion, tdc->f.versionNo)) {
1949             updateV2DC(setLocks, avc, tdc, 569); /* set hint */
1950             afs_stats_cmperf.dcacheHits++;      
1951             ConvertWToSLock(&tdc->lock);
1952             goto done;
1953         }
1954
1955         /* Sleep here when cache needs to be drained. */
1956         if (setLocks && !slowPass &&
1957             (afs_blocksUsed > (CM_WAITFORDRAINPCT*afs_cacheBlocks)/100)) {
1958             /* Make sure truncate daemon is running */
1959             afs_MaybeWakeupTruncateDaemon();
1960             ObtainWriteLock(&tdc->tlock, 614);
1961             tdc->refCount--; /* we'll re-obtain the dcache when we re-try. */
1962             ReleaseWriteLock(&tdc->tlock);
1963             ReleaseWriteLock(&tdc->lock);
1964             ReleaseReadLock(&avc->lock);
1965             while ((afs_blocksUsed-afs_blocksDiscarded) >
1966                    (CM_WAITFORDRAINPCT*afs_cacheBlocks)/100) {
1967                 afs_WaitForCacheDrain = 1;
1968                 afs_osi_Sleep(&afs_WaitForCacheDrain);
1969             }
1970             afs_MaybeFreeDiscardedDCache();
1971             /* need to check if someone else got the chunk first. */
1972             goto RetryGetDCache;
1973         }
1974
1975         /* Do not fetch data beyond truncPos. */
1976         maxGoodLength = avc->m.Length;
1977         if (avc->truncPos < maxGoodLength) maxGoodLength = avc->truncPos;
1978         Position = AFS_CHUNKBASE(abyte);
1979         if (vType(avc) == VDIR) {
1980             size = avc->m.Length;
1981             if (size > tdc->f.chunkBytes) {
1982                 /* pre-reserve space for file */
1983                 afs_AdjustSize(tdc, size);
1984             }
1985             size = 999999999;       /* max size for transfer */
1986         }
1987         else {
1988             size = AFS_CHUNKSIZE(abyte);        /* expected max size */
1989             /* don't read past end of good data on server */
1990             if (Position + size > maxGoodLength)
1991                 size = maxGoodLength - Position;
1992             if (size < 0) size = 0; /* Handle random races */
1993             if (size > tdc->f.chunkBytes) {
1994                 /* pre-reserve space for file */
1995                 afs_AdjustSize(tdc, size);      /* changes chunkBytes */
1996                 /* max size for transfer still in size */
1997             }
1998         }
1999         if (afs_mariner && !tdc->f.chunk) 
2000             afs_MarinerLog("fetch$Fetching", avc); /* , Position, size, afs_indexCounter );*/
2001         /*
2002          * Right now, we only have one tool, and it's a hammer.  So, we
2003          * fetch the whole file.
2004          */
2005         DZap(&tdc->f.inode);    /* pages in cache may be old */
2006 #ifdef  IHINT
2007         if (file = tdc->ihint) {
2008           if (tdc->f.inode == file->inum ) 
2009             usedihint++;
2010           else {
2011             tdc->ihint = 0;
2012             afs_UFSClose(file);
2013             file = 0;
2014             nihints--;
2015             file = osi_UFSOpen(tdc->f.inode);
2016           }
2017         }
2018         else
2019 #endif /* IHINT */
2020         file = afs_CFileOpen(tdc->f.inode);
2021         afs_RemoveVCB(&avc->fid);
2022         tdc->f.states |= DWriting;
2023         tdc->dflags |= DFFetching;
2024         tdc->validPos = Position;       /*  which is AFS_CHUNKBASE(abyte) */
2025         if (tdc->mflags & DFFetchReq) {
2026             tdc->mflags &= ~DFFetchReq;
2027 #ifdef AFS_AIX_ENV
2028             if (afs_osi_Wakeup(&tdc->validPos) == 0)
2029                 afs_Trace4(afs_iclSetp, CM_TRACE_DCACHEWAKE,
2030                        ICL_TYPE_STRING, __FILE__,
2031                        ICL_TYPE_INT32, __LINE__,
2032                        ICL_TYPE_POINTER, tdc,
2033                        ICL_TYPE_INT32, tdc->dflags);
2034 #else
2035             afs_osi_Wakeup(&tdc->validPos);
2036 #endif
2037         }
2038         tsmall = (struct tlocal1 *) osi_AllocLargeSpace(sizeof(struct tlocal1));
2039         setVcacheStatus = 0;
2040 #ifndef AFS_NOSTATS
2041         /*
2042          * Remember if we are doing the reading from a replicated volume,
2043          * and how many times we've zipped around the fetch/analyze loop.
2044          */
2045         fromReplica = (avc->states & CRO) ? 1 : 0;
2046         numFetchLoops = 0;
2047         accP = &(afs_stats_cmfullperf.accessinf);
2048         if (fromReplica)
2049             (accP->replicatedRefs)++;
2050         else
2051             (accP->unreplicatedRefs)++;
2052 #endif /* AFS_NOSTATS */
2053         /* this is a cache miss */
2054         afs_Trace4(afs_iclSetp, CM_TRACE_FETCHPROC, ICL_TYPE_POINTER, avc,
2055                         ICL_TYPE_FID, &(avc->fid),
2056                         ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(Position), 
2057                         ICL_TYPE_INT32, size);
2058
2059         if (size) afs_stats_cmperf.dcacheMisses++; 
2060         code = 0;
2061         /*
2062          * Dynamic root support:  fetch data from local memory.
2063          */
2064         if (afs_IsDynroot(avc)) {
2065             char *dynrootDir;
2066             int dynrootLen;
2067
2068             afs_GetDynroot(&dynrootDir, &dynrootLen, &tsmall->OutStatus);
2069
2070             dynrootDir += Position;
2071             dynrootLen -= Position;
2072             if (size > dynrootLen)
2073                 size = dynrootLen;
2074             if (size < 0) size = 0;
2075             code = afs_CFileWrite(file, 0, dynrootDir, size);
2076             afs_PutDynroot();
2077
2078             if (code == size)
2079                 code = 0;
2080             else
2081                 code = -1;
2082
2083             tdc->validPos = Position + size;
2084             afs_CFileTruncate(file, size); /* prune it */
2085         } else
2086         /*
2087          * Not a dynamic vnode:  do the real fetch.
2088          */
2089         do {
2090             /*
2091              * Locks held:
2092              * avc->lock(R) if setLocks && !slowPass
2093              * avc->lock(W) if !setLocks || slowPass
2094              * tdc->lock(W)
2095              */
2096
2097             tc = afs_Conn(&avc->fid, areq, SHARED_LOCK);
2098             if (tc) {
2099                 afs_int32 length_hi, length, bytes;
2100 #ifndef AFS_NOSTATS
2101                 numFetchLoops++;
2102                 if (fromReplica)
2103                     (accP->numReplicasAccessed)++;
2104                 
2105 #endif /* AFS_NOSTATS */
2106                 if (!setLocks || slowPass) {
2107                     avc->callback = tc->srvr->server;
2108                 } else {
2109                     newCallback = tc->srvr->server;
2110                     setNewCallback = 1;
2111                 }
2112                 i = osi_Time();
2113                 RX_AFS_GUNLOCK();
2114                 tcall = rx_NewCall(tc->id);
2115                 RX_AFS_GLOCK();
2116
2117                 XSTATS_START_TIME(AFS_STATS_FS_RPCIDX_FETCHDATA);
2118 #ifdef AFS_64BIT_CLIENT
2119                 length_hi = code = 0;
2120                 if (!afs_serverHasNo64Bit(tc)) {
2121                     tsize = size;
2122                     RX_AFS_GUNLOCK();
2123                     code = StartRXAFS_FetchData64(tcall,
2124                                             (struct AFSFid *) &avc->fid.Fid,
2125                                             Position, tsize);
2126                     if (code != 0) {
2127                         RX_AFS_GLOCK();
2128                         afs_Trace2(afs_iclSetp, CM_TRACE_FETCH64CODE,
2129                                    ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code);
2130                     } else {
2131                         bytes = rx_Read(tcall, (char *)&length_hi, sizeof(afs_int32));
2132                         RX_AFS_GLOCK();
2133                         if (bytes == sizeof(afs_int32)) {
2134                             length_hi = ntohl(length_hi);
2135                         } else {
2136                             length_hi = 0;
2137                             code = rx_Error(tcall); 
2138                             RX_AFS_GUNLOCK();
2139                             code1 = rx_EndCall(tcall, code);
2140                             RX_AFS_GLOCK();
2141                             tcall = (struct rx_call *) 0;
2142                         }
2143                     }
2144                 }
2145                 if (code == RXGEN_OPCODE || afs_serverHasNo64Bit(tc)) {
2146                     if (Position > 0x7FFFFFFF) {
2147                         code = EFBIG;
2148                     } else {
2149                         afs_int32 pos;
2150                         pos = Position;
2151                         RX_AFS_GUNLOCK();
2152                         if (!tcall)
2153                             tcall = rx_NewCall(tc->id);
2154                         code = StartRXAFS_FetchData(tcall,
2155                                     (struct AFSFid *) &avc->fid.Fid, pos, size);
2156                         RX_AFS_GLOCK();
2157                     }
2158                     afs_serverSetNo64Bit(tc);
2159                 }
2160                 if (code == 0) {                
2161                     RX_AFS_GUNLOCK();
2162                     bytes = rx_Read(tcall, (char *)&length, sizeof(afs_int32));
2163                     RX_AFS_GLOCK();
2164                     if (bytes == sizeof(afs_int32)) {
2165                         length = ntohl(length);
2166                     } else {
2167                         code = rx_Error(tcall); 
2168                     }
2169                 }
2170                 FillInt64(lengthFound, length_hi, length);
2171                 afs_Trace3(afs_iclSetp, CM_TRACE_FETCH64LENG,
2172                         ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code,
2173                         ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(lengthFound));
2174 #else /* AFS_64BIT_CLIENT */
2175                 RX_AFS_GUNLOCK();
2176                 code = StartRXAFS_FetchData(tcall,
2177                                             (struct AFSFid *) &avc->fid.Fid,
2178                                             Position, size);
2179                 RX_AFS_GLOCK();
2180                 if (code == 0) {                
2181                     RX_AFS_GUNLOCK();
2182                     bytes = rx_Read(tcall, (char *)&length, sizeof(afs_int32));
2183                     RX_AFS_GLOCK();
2184                     if (bytes == sizeof(afs_int32)) {
2185                         length = ntohl(length);
2186                     } else {
2187                         code = rx_Error(tcall); 
2188                     }
2189                 }
2190 #endif /* AFS_64BIT_CLIENT */
2191                 if (code == 0) {
2192
2193 #ifndef AFS_NOSTATS
2194                     xferP = &(afs_stats_cmfullperf.rpc.fsXferTimes[AFS_STATS_FS_XFERIDX_FETCHDATA]);
2195                     osi_GetuTime(&xferStartTime);
2196
2197                     code = afs_CacheFetchProc(tcall, file, 
2198                                 (afs_size_t) Position, tdc, avc,
2199                                 &bytesToXfer, &bytesXferred, length);
2200
2201                     osi_GetuTime(&xferStopTime);
2202                     (xferP->numXfers)++;
2203                     if (!code) {
2204                         (xferP->numSuccesses)++;
2205                         afs_stats_XferSumBytes[AFS_STATS_FS_XFERIDX_FETCHDATA] += bytesXferred;
2206                         (xferP->sumBytes) += (afs_stats_XferSumBytes[AFS_STATS_FS_XFERIDX_FETCHDATA] >> 10);
2207                         afs_stats_XferSumBytes[AFS_STATS_FS_XFERIDX_FETCHDATA] &= 0x3FF;
2208                         if (bytesXferred < xferP->minBytes)
2209                            xferP->minBytes = bytesXferred;
2210                         if (bytesXferred > xferP->maxBytes)
2211                            xferP->maxBytes = bytesXferred;
2212                     
2213                         /*
2214                          * Tally the size of the object.  Note: we tally the actual size,
2215                          * NOT the number of bytes that made it out over the wire.
2216                          */
2217                         if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET0)
2218                             (xferP->count[0])++;
2219                         else
2220                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET1)
2221                                 (xferP->count[1])++;
2222                         else
2223                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET2)
2224                                 (xferP->count[2])++;
2225                         else
2226                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET3)
2227                                 (xferP->count[3])++;
2228                         else
2229                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET4)
2230                                 (xferP->count[4])++;
2231                         else
2232                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET5)
2233                                 (xferP->count[5])++;
2234                         else
2235                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET6)
2236                                 (xferP->count[6])++;
2237                         else
2238                             if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET7)
2239                                 (xferP->count[7])++;
2240                         else
2241                             (xferP->count[8])++;
2242
2243                         afs_stats_GetDiff(elapsedTime, xferStartTime, xferStopTime);
2244                         afs_stats_AddTo((xferP->sumTime), elapsedTime);
2245                         afs_stats_SquareAddTo((xferP->sqrTime), elapsedTime);
2246                         if (afs_stats_TimeLessThan(elapsedTime, (xferP->minTime))) {
2247                            afs_stats_TimeAssign((xferP->minTime), elapsedTime);
2248                         }
2249                         if (afs_stats_TimeGreaterThan(elapsedTime, (xferP->maxTime))) {
2250                            afs_stats_TimeAssign((xferP->maxTime), elapsedTime);
2251                         }
2252                     }
2253 #else
2254                     code = afs_CacheFetchProc(tcall, file, Position, tdc, avc, 0, 0, length);
2255 #endif /* AFS_NOSTATS */
2256                 }
2257                 if (code == 0) {
2258                     RX_AFS_GUNLOCK();
2259                     code = EndRXAFS_FetchData(tcall,
2260                                               &tsmall->OutStatus,
2261                                               &tsmall->CallBack,
2262                                               &tsmall->tsync);
2263                     RX_AFS_GLOCK();
2264                 }
2265                 XSTATS_END_TIME;
2266                 RX_AFS_GUNLOCK();
2267                 if (tcall)
2268                     code1 = rx_EndCall(tcall, code);
2269                 RX_AFS_GLOCK();
2270             }
2271             else {
2272                 code = -1;
2273             }
2274             if ( !code && code1 )
2275                 code = code1;
2276
2277             if (code == 0) {
2278                 /* callback could have been broken (or expired) in a race here, 
2279                  * but we return the data anyway.  It's as good as we knew about
2280                  * when we started. */
2281                 /* 
2282                  * validPos is updated by CacheFetchProc, and can only be 
2283                  * modifed under a dcache write lock, which we've blocked out 
2284                  */
2285                 size = tdc->validPos - Position;  /* actual segment size */
2286                 if (size < 0) size = 0;
2287                 afs_CFileTruncate(file, size); /* prune it */
2288             }
2289             else {
2290                 if (!setLocks || slowPass) {
2291                     ObtainWriteLock(&afs_xcbhash, 453);
2292                     afs_DequeueCallback(avc);
2293                     avc->states &= ~(CStatd | CUnique);   
2294                     avc->callback = NULL;
2295                     ReleaseWriteLock(&afs_xcbhash);
2296                     if (avc->fid.Fid.Vnode & 1 || (vType(avc) == VDIR))
2297                         osi_dnlc_purgedp(avc);
2298                 } else {
2299                     /* Something lost.  Forget about performance, and go
2300                      * back with a vcache write lock.
2301                      */
2302                     afs_CFileTruncate(file, 0);
2303                     afs_AdjustSize(tdc, 0);
2304                     afs_CFileClose(file);
2305                     osi_FreeLargeSpace(tsmall);
2306                     tsmall = 0;
2307                     ReleaseWriteLock(&tdc->lock);
2308                     afs_PutDCache(tdc);
2309                     tdc = 0;
2310                     ReleaseReadLock(&avc->lock);
2311                     slowPass = 1;
2312                     goto RetryGetDCache;
2313                 }
2314             }
2315
2316         } while
2317             (afs_Analyze(tc, code, &avc->fid, areq,
2318                          AFS_STATS_FS_RPCIDX_FETCHDATA,
2319                          SHARED_LOCK, NULL));
2320
2321         /*
2322          * Locks held:
2323          * avc->lock(R) if setLocks && !slowPass
2324          * avc->lock(W) if !setLocks || slowPass
2325          * tdc->lock(W)
2326          */
2327
2328 #ifndef AFS_NOSTATS
2329         /*
2330          * In the case of replicated access, jot down info on the number of
2331          * attempts it took before we got through or gave up.
2332          */
2333         if (fromReplica) {
2334             if (numFetchLoops <= 1)
2335                 (accP->refFirstReplicaOK)++;
2336             if (numFetchLoops > accP->maxReplicasPerRef)
2337                 accP->maxReplicasPerRef = numFetchLoops;
2338         }
2339 #endif /* AFS_NOSTATS */
2340
2341         tdc->dflags &= ~DFFetching;
2342 #ifdef AFS_AIX_ENV
2343         if (afs_osi_Wakeup(&tdc->validPos) == 0)
2344             afs_Trace4(afs_iclSetp, CM_TRACE_DCACHEWAKE,
2345                        ICL_TYPE_STRING, __FILE__,
2346                        ICL_TYPE_INT32, __LINE__,
2347                        ICL_TYPE_POINTER, tdc,
2348                        ICL_TYPE_INT32, tdc->dflags);
2349 #else
2350             afs_osi_Wakeup(&tdc->validPos);
2351 #endif
2352         if (avc->execsOrWriters == 0) tdc->f.states &= ~DWriting;
2353
2354         /* now, if code != 0, we have an error and should punt.
2355          * note that we have the vcache write lock, either because
2356          * !setLocks or slowPass.
2357          */
2358         if (code) {
2359             afs_CFileTruncate(file, 0);
2360             afs_AdjustSize(tdc, 0);
2361             afs_CFileClose(file);
2362             ZapDCE(tdc);        /* sets DFEntryMod */
2363             if (vType(avc) == VDIR) {
2364                 DZap(&tdc->f.inode);
2365             }
2366             ReleaseWriteLock(&tdc->lock);
2367             afs_PutDCache(tdc);
2368             ObtainWriteLock(&afs_xcbhash, 454);
2369             afs_DequeueCallback(avc);
2370             avc->states &= ~( CStatd | CUnique );
2371             ReleaseWriteLock(&afs_xcbhash);
2372             if (avc->fid.Fid.Vnode & 1 || (vType(avc) == VDIR))
2373                 osi_dnlc_purgedp(avc);
2374             /*
2375              * Locks held:
2376              * avc->lock(W); assert(!setLocks || slowPass)
2377              */
2378             osi_Assert(!setLocks || slowPass);
2379             tdc = NULL;
2380             goto done;
2381         }
2382
2383         /* otherwise we copy in the just-fetched info */
2384         afs_CFileClose(file);
2385         afs_AdjustSize(tdc, size);  /* new size */
2386         /*
2387          * Copy appropriate fields into vcache.  Status is
2388          * copied later where we selectively acquire the
2389          * vcache write lock.
2390          */
2391         if (slowPass)
2392             afs_ProcessFS(avc, &tsmall->OutStatus, areq);
2393         else
2394             setVcacheStatus = 1;
2395         hset64(tdc->f.versionNo, tsmall->OutStatus.dataVersionHigh, tsmall->OutStatus.DataVersion);
2396         tdc->dflags |= DFEntryMod;
2397         afs_indexFlags[tdc->index] |= IFEverUsed;
2398         ConvertWToSLock(&tdc->lock);
2399     } /*Data version numbers don't match*/
2400     else {
2401         /*
2402          * Data version numbers match.
2403          */
2404         afs_stats_cmperf.dcacheHits++;
2405     }  /*Data version numbers match*/
2406
2407     updateV2DC(setLocks, avc, tdc, 335); /* set hint */
2408 done:
2409     /*
2410      * Locks held:
2411      * avc->lock(R) if setLocks && !slowPass
2412      * avc->lock(W) if !setLocks || slowPass
2413      * tdc->lock(S) if tdc
2414      */
2415
2416     /*
2417      * See if this was a reference to a file in the local cell.
2418      */
2419     if (afs_IsPrimaryCellNum(avc->fid.Cell))
2420         afs_stats_cmperf.dlocalAccesses++;
2421     else
2422         afs_stats_cmperf.dremoteAccesses++;
2423
2424     /* Fix up LRU info */
2425
2426     if (tdc) {
2427         MObtainWriteLock(&afs_xdcache, 602);
2428         hset(afs_indexTimes[tdc->index], afs_indexCounter);
2429         hadd32(afs_indexCounter, 1);
2430         MReleaseWriteLock(&afs_xdcache);
2431
2432         /* return the data */
2433         if (vType(avc) == VDIR)
2434             *aoffset = abyte;
2435         else
2436             *aoffset = AFS_CHUNKOFFSET(abyte);
2437         *alen = (tdc->f.chunkBytes - *aoffset);
2438         ReleaseSharedLock(&tdc->lock);
2439     }
2440
2441     /*
2442      * Locks held:
2443      * avc->lock(R) if setLocks && !slowPass
2444      * avc->lock(W) if !setLocks || slowPass
2445      */
2446
2447     /* Fix up the callback and status values in the vcache */
2448     doVcacheUpdate = 0;
2449     if (setLocks && !slowPass) {
2450         /* DCLOCKXXX
2451          *
2452          * This is our dirty little secret to parallel fetches.
2453          * We don't write-lock the vcache while doing the fetch,
2454          * but potentially we'll need to update the vcache after
2455          * the fetch is done.
2456          *
2457          * Drop the read lock and try to re-obtain the write
2458          * lock.  If the vcache still has the same DV, it's
2459          * ok to go ahead and install the new data.
2460          */
2461         afs_hyper_t currentDV, statusDV;
2462
2463         hset(currentDV, avc->m.DataVersion);
2464
2465         if (setNewCallback && avc->callback != newCallback)
2466             doVcacheUpdate = 1;
2467
2468         if (tsmall) {
2469             hset64(statusDV, tsmall->OutStatus.dataVersionHigh,
2470                              tsmall->OutStatus.DataVersion);
2471
2472             if (setVcacheStatus && avc->m.Length != tsmall->OutStatus.Length)
2473                 doVcacheUpdate = 1;
2474             if (setVcacheStatus && !hsame(currentDV, statusDV))
2475                 doVcacheUpdate = 1;
2476         }
2477
2478         ReleaseReadLock(&avc->lock);
2479
2480         if (doVcacheUpdate) {
2481             ObtainWriteLock(&avc->lock, 615);
2482             if (!hsame(avc->m.DataVersion, currentDV)) {
2483                 /* We lose.  Someone will beat us to it. */
2484                 doVcacheUpdate = 0;
2485                 ReleaseWriteLock(&avc->lock);
2486             }
2487         }
2488     }
2489
2490     /* With slow pass, we've already done all the updates */
2491     if (slowPass) {
2492         ReleaseWriteLock(&avc->lock);
2493     }
2494
2495     /* Check if we need to perform any last-minute fixes with a write-lock */
2496     if (!setLocks || doVcacheUpdate) {
2497         if (setNewCallback) avc->callback = newCallback;
2498         if (tsmall && setVcacheStatus) afs_ProcessFS(avc, &tsmall->OutStatus, areq);
2499         if (setLocks) ReleaseWriteLock(&avc->lock);
2500     }
2501
2502     if (tsmall) osi_FreeLargeSpace(tsmall);
2503
2504     return tdc;
2505 } /*afs_GetDCache*/
2506
2507
2508 /*
2509  * afs_WriteThroughDSlots
2510  *
2511  * Description:
2512  *      Sweep through the dcache slots and write out any modified
2513  *      in-memory data back on to our caching store.
2514  *
2515  * Parameters:
2516  *      None.
2517  *
2518  * Environment:
2519  *      The afs_xdcache is write-locked through this whole affair.
2520  */
2521 void afs_WriteThroughDSlots(void)
2522 {
2523     register struct dcache *tdc;
2524     register afs_int32 i, touchedit=0;
2525     struct dcache **ents;
2526     int entmax, entcount;
2527
2528     AFS_STATCNT(afs_WriteThroughDSlots);
2529
2530     /*
2531      * Because of lock ordering, we can't grab dcache locks while
2532      * holding afs_xdcache.  So we enter xdcache, get a reference
2533      * for every dcache entry, and exit xdcache.
2534      */
2535     MObtainWriteLock(&afs_xdcache,283);
2536     entmax = afs_cacheFiles;
2537     ents = afs_osi_Alloc(entmax * sizeof(struct dcache *));
2538     entcount = 0;
2539     for(i = 0; i < afs_cacheFiles; i++) {
2540         tdc = afs_indexTable[i];
2541
2542         /* Grab tlock in case the existing refcount isn't zero */
2543         if (tdc && !(afs_indexFlags[i] & (IFFree | IFDiscarded))) {
2544             ObtainWriteLock(&tdc->tlock, 623);
2545             tdc->refCount++;
2546             ReleaseWriteLock(&tdc->tlock);
2547
2548             ents[entcount++] = tdc;
2549         }
2550     }
2551     MReleaseWriteLock(&afs_xdcache);
2552
2553     /*
2554      * Now, for each dcache entry we found, check if it's dirty.
2555      * If so, get write-lock, get afs_xdcache, which protects
2556      * afs_cacheInodep, and flush it.  Don't forget to put back
2557      * the refcounts.
2558      */
2559     for (i = 0; i < entcount; i++) {
2560         tdc = ents[i];
2561
2562         if (tdc->dflags & DFEntryMod) {
2563             int wrLock;
2564
2565             wrLock = (0 == NBObtainWriteLock(&tdc->lock, 619));
2566
2567             /* Now that we have the write lock, double-check */
2568             if (wrLock && (tdc->dflags & DFEntryMod)) {
2569                 tdc->dflags &= ~DFEntryMod;
2570                 MObtainWriteLock(&afs_xdcache, 620);
2571                 afs_WriteDCache(tdc, 1);
2572                 MReleaseWriteLock(&afs_xdcache);
2573                 touchedit = 1;
2574             }
2575             if (wrLock) ReleaseWriteLock(&tdc->lock);
2576         }
2577
2578         afs_PutDCache(tdc);
2579     }
2580     afs_osi_Free(ents, entmax * sizeof(struct dcache *));
2581
2582     MObtainWriteLock(&afs_xdcache, 617);
2583     if (!touchedit && (cacheDiskType != AFS_FCACHE_TYPE_MEM)) {
2584         /* Touch the file to make sure that the mtime on the file is kept
2585          * up-to-date to avoid losing cached files on cold starts because
2586          * their mtime seems old...
2587          */
2588         struct afs_fheader theader;
2589
2590         theader.magic = AFS_FHMAGIC;
2591         theader.firstCSize = AFS_FIRSTCSIZE;
2592         theader.otherCSize = AFS_OTHERCSIZE;
2593         theader.version = AFS_CI_VERSION;
2594         afs_osi_Write(afs_cacheInodep, 0, &theader, sizeof(theader));
2595     }
2596     MReleaseWriteLock(&afs_xdcache);
2597 }
2598
2599 /*
2600  * afs_MemGetDSlot
2601  *
2602  * Description:
2603  *      Return a pointer to an freshly initialized dcache entry using
2604  *      a memory-based cache.  The tlock will be read-locked.
2605  *
2606  * Parameters:
2607  *      aslot : Dcache slot to look at.
2608  *      tmpdc : Ptr to dcache entry.
2609  *
2610  * Environment:
2611  *      Must be called with afs_xdcache write-locked.
2612  */
2613
2614 struct dcache *afs_MemGetDSlot(register afs_int32 aslot, register struct dcache *tmpdc)
2615 {
2616     register struct dcache *tdc;
2617     int existing = 0;
2618
2619     AFS_STATCNT(afs_MemGetDSlot);
2620     if (CheckLock(&afs_xdcache) != -1) osi_Panic("getdslot nolock");
2621     if (aslot < 0 || aslot >= afs_cacheFiles) osi_Panic("getdslot slot");
2622     tdc = afs_indexTable[aslot];
2623     if (tdc) {
2624         QRemove(&tdc->lruq);        /* move to queue head */
2625         QAdd(&afs_DLRU, &tdc->lruq);
2626         /* We're holding afs_xdcache, but get tlock in case refCount != 0 */
2627         ObtainWriteLock(&tdc->tlock, 624);
2628         tdc->refCount++;
2629         ConvertWToRLock(&tdc->tlock);
2630         return tdc;
2631     }
2632     if (tmpdc == NULL) {
2633         if (!afs_freeDSList) afs_GetDownDSlot(4); 
2634         if (!afs_freeDSList) {
2635             /* none free, making one is better than a panic */
2636             afs_stats_cmperf.dcacheXAllocs++;   /* count in case we have a leak */
2637             tdc = (struct dcache *) afs_osi_Alloc(sizeof (struct dcache));
2638 #ifdef  KERNEL_HAVE_PIN
2639             pin((char *)tdc, sizeof(struct dcache));    /* XXX */
2640 #endif
2641         } else {
2642             tdc = afs_freeDSList;
2643             afs_freeDSList = (struct dcache *) tdc->lruq.next;
2644             existing = 1;
2645         }
2646         tdc->dflags = 0;        /* up-to-date, not in free q */
2647         tdc->mflags = 0;
2648         QAdd(&afs_DLRU, &tdc->lruq);
2649         if (tdc->lruq.prev == &tdc->lruq) osi_Panic("lruq 3");
2650     }
2651     else {
2652         tdc = tmpdc;
2653         tdc->f.states = 0;
2654     }
2655     
2656     /* initialize entry */
2657     tdc->f.fid.Cell = 0;
2658     tdc->f.fid.Fid.Volume = 0;
2659     tdc->f.chunk = -1;
2660     hones(tdc->f.versionNo);
2661     tdc->f.inode = aslot;
2662     tdc->dflags |= DFEntryMod;
2663     tdc->refCount = 1;
2664     tdc->index = aslot;
2665     afs_indexUnique[aslot] = tdc->f.fid.Fid.Unique;
2666
2667     if (existing) {
2668         osi_Assert(0 == NBObtainWriteLock(&tdc->lock, 674));
2669         osi_Assert(0 == NBObtainWriteLock(&tdc->mflock, 675));
2670         osi_Assert(0 == NBObtainWriteLock(&tdc->tlock, 676));
2671     }
2672
2673     RWLOCK_INIT(&tdc->lock, "dcache lock");
2674     RWLOCK_INIT(&tdc->tlock, "dcache tlock");
2675     RWLOCK_INIT(&tdc->mflock, "dcache flock");
2676     ObtainReadLock(&tdc->tlock);
2677     
2678     if (tmpdc == NULL)
2679         afs_indexTable[aslot] = tdc;
2680     return tdc;
2681
2682 } /*afs_MemGetDSlot*/
2683
2684 unsigned int last_error = 0, lasterrtime = 0;
2685
2686 /*
2687  * afs_UFSGetDSlot
2688  *
2689  * Description:
2690  *      Return a pointer to an freshly initialized dcache entry using
2691  *      a UFS-based disk cache.  The dcache tlock will be read-locked.
2692  *
2693  * Parameters:
2694  *      aslot : Dcache slot to look at.
2695  *      tmpdc : Ptr to dcache entry.
2696  *
2697  * Environment:
2698  *      afs_xdcache lock write-locked.
2699  */
2700 struct dcache *afs_UFSGetDSlot(register afs_int32 aslot, register struct dcache *tmpdc)
2701 {
2702     register afs_int32 code;
2703     register struct dcache *tdc;
2704     int existing = 0;
2705     int entryok;
2706
2707     AFS_STATCNT(afs_UFSGetDSlot);
2708     if (CheckLock(&afs_xdcache) != -1) osi_Panic("getdslot nolock");
2709     if (aslot < 0 || aslot >= afs_cacheFiles) osi_Panic("getdslot slot");
2710     tdc = afs_indexTable[aslot];
2711     if (tdc) {
2712         QRemove(&tdc->lruq);        /* move to queue head */
2713         QAdd(&afs_DLRU, &tdc->lruq);
2714         /* Grab tlock in case refCount != 0 */
2715         ObtainWriteLock(&tdc->tlock, 625);
2716         tdc->refCount++;
2717         ConvertWToRLock(&tdc->tlock);
2718         return tdc;
2719     }
2720     /* otherwise we should read it in from the cache file */
2721     /*
2722      * If we weren't passed an in-memory region to place the file info,
2723      * we have to allocate one.
2724      */
2725     if (tmpdc == NULL) {
2726         if (!afs_freeDSList) afs_GetDownDSlot(4);
2727         if (!afs_freeDSList) {
2728             /* none free, making one is better than a panic */
2729             afs_stats_cmperf.dcacheXAllocs++;   /* count in case we have a leak */
2730             tdc = (struct dcache *) afs_osi_Alloc(sizeof (struct dcache));
2731 #ifdef  KERNEL_HAVE_PIN
2732             pin((char *)tdc, sizeof(struct dcache));    /* XXX */
2733 #endif
2734         } else {
2735             tdc = afs_freeDSList;
2736             afs_freeDSList = (struct dcache *) tdc->lruq.next;
2737             existing = 1;
2738         }
2739         tdc->dflags = 0;        /* up-to-date, not in free q */
2740         tdc->mflags = 0;
2741         QAdd(&afs_DLRU, &tdc->lruq);
2742         if (tdc->lruq.prev == &tdc->lruq) osi_Panic("lruq 3");
2743     }
2744     else {
2745         tdc = tmpdc;
2746         tdc->f.states = 0;
2747         tdc->ihint = 0;
2748     }
2749
2750     /*
2751       * Seek to the aslot'th entry and read it in.
2752       */
2753     code = afs_osi_Read(afs_cacheInodep, sizeof(struct fcache) * aslot +
2754                                          sizeof(struct afs_fheader),
2755                         (char *)(&tdc->f), sizeof(struct fcache));
2756     entryok = 1;
2757     if (code != sizeof(struct fcache))
2758         entryok = 0;
2759     if (!afs_CellNumValid(tdc->f.fid.Cell))
2760         entryok = 0;
2761
2762     if (!entryok) {
2763         tdc->f.fid.Cell = 0;
2764         tdc->f.fid.Fid.Volume = 0;
2765         tdc->f.chunk = -1;
2766         hones(tdc->f.versionNo);
2767         tdc->dflags |= DFEntryMod;
2768 #if defined(KERNEL_HAVE_UERROR)
2769         last_error = getuerror();
2770 #endif
2771         lasterrtime = osi_Time();
2772         afs_indexUnique[aslot] = tdc->f.fid.Fid.Unique;
2773     }
2774     tdc->refCount = 1;
2775     tdc->index = aslot;
2776
2777     if (existing) {
2778         osi_Assert(0 == NBObtainWriteLock(&tdc->lock, 674));
2779         osi_Assert(0 == NBObtainWriteLock(&tdc->mflock, 675));
2780         osi_Assert(0 == NBObtainWriteLock(&tdc->tlock, 676));
2781     }
2782
2783     RWLOCK_INIT(&tdc->lock, "dcache lock");
2784     RWLOCK_INIT(&tdc->tlock, "dcache tlock");
2785     RWLOCK_INIT(&tdc->mflock, "dcache flock");
2786     ObtainReadLock(&tdc->tlock);
2787
2788     /*
2789      * If we didn't read into a temporary dcache region, update the
2790      * slot pointer table.
2791      */
2792     if (tmpdc == NULL)
2793         afs_indexTable[aslot] = tdc;
2794     return tdc;
2795
2796 }  /*afs_UFSGetDSlot*/
2797
2798
2799
2800 /*
2801  * afs_WriteDCache
2802  *
2803  * Description:
2804  *      write a particular dcache entry back to its home in the
2805  *      CacheInfo file.
2806  *
2807  * Parameters:
2808  *      adc   : Pointer to the dcache entry to write.
2809  *      atime : If true, set the modtime on the file to the current time.
2810  *
2811  * Environment:
2812  *      Must be called with the afs_xdcache lock at least read-locked,
2813  *      and dcache entry at least read-locked.
2814  *      The reference count is not changed.
2815  */
2816
2817 int afs_WriteDCache(register struct dcache *adc, int atime)
2818 {
2819     register afs_int32 code;
2820
2821     if (cacheDiskType == AFS_FCACHE_TYPE_MEM) return 0;
2822     AFS_STATCNT(afs_WriteDCache);
2823     if (atime)
2824         adc->f.modTime = osi_Time();
2825     /*
2826      * Seek to the right dcache slot and write the in-memory image out to disk.
2827      */
2828     afs_cellname_write();
2829     code = afs_osi_Write(afs_cacheInodep, sizeof(struct fcache) * adc->index +
2830                                           sizeof(struct afs_fheader), 
2831                          (char *)(&adc->f), sizeof(struct fcache));
2832     if (code != sizeof(struct fcache)) return EIO;
2833     return 0;
2834 }
2835
2836
2837
2838 /*
2839  * afs_wakeup
2840  *
2841  * Description:
2842  *      Wake up users of a particular file waiting for stores to take
2843  *      place.
2844  *
2845  * Parameters:
2846  *      avc : Ptr to related vcache entry.
2847  *
2848  * Environment:
2849  *      Nothing interesting.
2850  */
2851
2852 int afs_wakeup(register struct vcache *avc)
2853 {
2854     register int i;
2855     register struct brequest *tb;
2856     tb = afs_brs;
2857     AFS_STATCNT(afs_wakeup);
2858     for (i = 0; i < NBRS; i++, tb++) {
2859         /* if request is valid and for this file, we've found it */
2860         if (tb->refCount > 0 && avc == tb->vnode) {
2861
2862             /*
2863              * If CSafeStore is on, then we don't awaken the guy
2864              * waiting for the store until the whole store has finished.
2865              * Otherwise, we do it now.  Note that if CSafeStore is on,
2866              * the BStore routine actually wakes up the user, instead
2867              * of us.
2868              * I think this is redundant now because this sort of thing
2869              * is already being handled by the higher-level code.
2870              */
2871             if ((avc->states & CSafeStore) == 0) {
2872                 tb->code = 0;
2873                 tb->flags |= BUVALID;
2874                 if (tb->flags & BUWAIT) {
2875                     tb->flags &= ~BUWAIT;
2876                     afs_osi_Wakeup(tb);
2877                 }
2878             }
2879             break;
2880         }
2881     }
2882     return 0;
2883 }
2884
2885
2886 /*
2887  * afs_InitCacheFile
2888  *
2889  * Description:
2890  *      Given a file name and inode, set up that file to be an
2891  *      active member in the AFS cache.  This also involves checking
2892  *      the usability of its data.
2893  *
2894  * Parameters:
2895  *      afile  : Name of the cache file to initialize.
2896  *      ainode : Inode of the file.
2897  *
2898  * Environment:
2899  *      This function is called only during initialization.
2900  */
2901
2902 int afs_InitCacheFile(char *afile, ino_t ainode)
2903 {
2904     register afs_int32 code;
2905 #if defined(AFS_LINUX22_ENV)
2906     struct dentry *filevp;
2907 #else
2908     struct vnode *filevp;
2909 #endif
2910     afs_int32 index;
2911     int fileIsBad;
2912     struct osi_file *tfile;
2913     struct osi_stat tstat;
2914     register struct dcache *tdc;
2915
2916     AFS_STATCNT(afs_InitCacheFile);
2917     index = afs_stats_cmperf.cacheNumEntries;
2918     if (index >= afs_cacheFiles) return EINVAL;
2919
2920     MObtainWriteLock(&afs_xdcache,282);
2921     tdc = afs_GetDSlot(index, NULL);
2922     ReleaseReadLock(&tdc->tlock);
2923     MReleaseWriteLock(&afs_xdcache);
2924
2925     ObtainWriteLock(&tdc->lock, 621);
2926     MObtainWriteLock(&afs_xdcache, 622);
2927     if (afile) {
2928         code = gop_lookupname(afile,
2929                               AFS_UIOSYS,
2930                               0,
2931                               NULL,
2932                               &filevp);
2933         if (code) {
2934             ReleaseWriteLock(&afs_xdcache);
2935             ReleaseWriteLock(&tdc->lock);
2936             afs_PutDCache(tdc);
2937             return code;
2938         }
2939         /*
2940          * We have a VN_HOLD on filevp.  Get the useful info out and
2941          * return.  We make use of the fact that the cache is in the
2942          * UFS file system, and just record the inode number.
2943          */
2944 #ifdef AFS_LINUX22_ENV
2945         tdc->f.inode = VTOI(filevp->d_inode)->i_number;
2946         dput(filevp);
2947 #else
2948         tdc->f.inode = afs_vnodeToInumber(filevp);
2949 #ifdef AFS_DEC_ENV
2950         grele(filevp);
2951 #else
2952         AFS_RELE((struct vnode *)filevp);
2953 #endif
2954 #endif /* AFS_LINUX22_ENV */
2955     }
2956     else {
2957         tdc->f.inode = ainode;
2958     }
2959     fileIsBad = 0;
2960     if ((tdc->f.states & DWriting) ||
2961         tdc->f.fid.Fid.Volume == 0) fileIsBad = 1;
2962     tfile = osi_UFSOpen(tdc->f.inode);
2963     code = afs_osi_Stat(tfile, &tstat);
2964     if (code) osi_Panic("initcachefile stat");
2965
2966     /*
2967      * If file size doesn't match the cache info file, it's probably bad.
2968      */
2969     if (tdc->f.chunkBytes != tstat.size) fileIsBad = 1;
2970     tdc->f.chunkBytes = 0;
2971
2972     /*
2973      * If file changed within T (120?) seconds of cache info file, it's
2974      * probably bad.  In addition, if slot changed within last T seconds,
2975      * the cache info file may be incorrectly identified, and so slot
2976      * may be bad.
2977      */
2978     if (cacheInfoModTime < tstat.mtime + 120) fileIsBad = 1;
2979     if (cacheInfoModTime < tdc->f.modTime + 120) fileIsBad = 1;
2980     /* In case write through is behind, make sure cache items entry is
2981      * at least as new as the chunk.
2982      */
2983     if (tdc->f.modTime < tstat.mtime) fileIsBad = 1;
2984     if (fileIsBad) {
2985         tdc->f.fid.Fid.Volume = 0;  /* not in the hash table */
2986         if (tstat.size != 0)
2987             osi_UFSTruncate(tfile, 0);
2988         /* put entry in free cache slot list */
2989         afs_dvnextTbl[tdc->index] = afs_freeDCList;
2990         afs_freeDCList = index;
2991         afs_freeDCCount++;
2992         afs_indexFlags[index] |= IFFree;
2993         afs_indexUnique[index] = 0;
2994     }
2995     else {
2996         /*
2997          * We must put this entry in the appropriate hash tables.
2998          * Note that i is still set from the above DCHash call
2999          */
3000         code = DCHash(&tdc->f.fid, tdc->f.chunk);
3001         afs_dcnextTbl[tdc->index] = afs_dchashTbl[code];        
3002         afs_dchashTbl[code] = tdc->index;
3003         code = DVHash(&tdc->f.fid);
3004         afs_dvnextTbl[tdc->index] = afs_dvhashTbl[code];
3005         afs_dvhashTbl[code] = tdc->index;
3006         afs_AdjustSize(tdc, tstat.size);    /* adjust to new size */
3007         if (tstat.size > 0)
3008             /* has nontrivial amt of data */
3009             afs_indexFlags[index] |= IFEverUsed;
3010         afs_stats_cmperf.cacheFilesReused++;
3011         /*
3012          * Initialize index times to file's mod times; init indexCounter
3013          * to max thereof
3014          */
3015         hset32(afs_indexTimes[index], tstat.atime);
3016         if (hgetlo(afs_indexCounter) < tstat.atime) {
3017             hset32(afs_indexCounter, tstat.atime);
3018         }
3019         afs_indexUnique[index] = tdc->f.fid.Fid.Unique;
3020     } /*File is not bad*/
3021
3022     osi_UFSClose(tfile);
3023     tdc->f.states &= ~DWriting;
3024     tdc->dflags &= ~DFEntryMod;
3025     /* don't set f.modTime; we're just cleaning up */
3026     afs_WriteDCache(tdc, 0);
3027     ReleaseWriteLock(&afs_xdcache);
3028     ReleaseWriteLock(&tdc->lock);
3029     afs_PutDCache(tdc);
3030     afs_stats_cmperf.cacheNumEntries++;
3031     return 0;
3032 }
3033
3034
3035 /*Max # of struct dcache's resident at any time*/
3036 /*
3037  * If 'dchint' is enabled then in-memory dcache min is increased because of
3038  * crashes...
3039  */
3040 #define DDSIZE 200
3041
3042 /* 
3043  * afs_dcacheInit
3044  *
3045  * Description:
3046  *      Initialize dcache related variables.
3047  */
3048 void afs_dcacheInit(int afiles, int ablocks, int aDentries, int achunk,
3049                     int aflags)
3050 {
3051     register struct dcache *tdp;
3052     int i;
3053     int code;
3054
3055     afs_freeDCList = NULLIDX;
3056     afs_discardDCList = NULLIDX;
3057     afs_freeDCCount = 0;
3058     afs_freeDSList = NULL;
3059     hzero(afs_indexCounter);
3060
3061     LOCK_INIT(&afs_xdcache, "afs_xdcache");
3062    
3063     /*
3064      * Set chunk size
3065      */
3066     if (achunk) {
3067         if (achunk < 0 || achunk > 30)
3068             achunk = 13;                /* Use default */
3069         AFS_SETCHUNKSIZE(achunk);
3070     }
3071     
3072     if(!aDentries)
3073         aDentries = DDSIZE;
3074     
3075     if(aflags & AFSCALL_INIT_MEMCACHE) {
3076         /*
3077          * Use a memory cache instead of a disk cache
3078          */
3079         cacheDiskType = AFS_FCACHE_TYPE_MEM;
3080         afs_cacheType = &afs_MemCacheOps;
3081         afiles = (afiles < aDentries) ? afiles : aDentries; /* min */
3082         ablocks = afiles * (AFS_FIRSTCSIZE/1024);
3083         /* ablocks is reported in 1K blocks */
3084         code = afs_InitMemCache(afiles * AFS_FIRSTCSIZE, AFS_FIRSTCSIZE, aflags);
3085         if (code != 0) {
3086             printf("afsd: memory cache too large for available memory.\n");
3087             printf("afsd: AFS files cannot be accessed.\n\n");
3088             dcacheDisabled = 1;
3089             afiles = ablocks = 0;
3090         }
3091         else
3092             printf("Memory cache: Allocating %d dcache entries...", aDentries);
3093     } else {
3094         cacheDiskType = AFS_FCACHE_TYPE_UFS;
3095         afs_cacheType = &afs_UfsCacheOps;
3096     }
3097
3098     if (aDentries > 512) 
3099         afs_dhashsize = 2048;
3100     /* initialize hash tables */
3101     afs_dvhashTbl = (afs_int32 *) afs_osi_Alloc(afs_dhashsize * sizeof(afs_int32));
3102     afs_dchashTbl = (afs_int32 *) afs_osi_Alloc(afs_dhashsize * sizeof(afs_int32));
3103     for(i=0;i< afs_dhashsize;i++) {
3104         afs_dvhashTbl[i] = NULLIDX;
3105         afs_dchashTbl[i] = NULLIDX;
3106     }
3107     afs_dvnextTbl = (afs_int32 *) afs_osi_Alloc(afiles * sizeof(afs_int32));
3108     afs_dcnextTbl = (afs_int32 *) afs_osi_Alloc(afiles * sizeof(afs_int32));
3109     for(i=0;i< afiles;i++) {
3110         afs_dvnextTbl[i] = NULLIDX;
3111         afs_dcnextTbl[i] = NULLIDX;
3112     }
3113     
3114     /* Allocate and zero the pointer array to the dcache entries */
3115     afs_indexTable = (struct dcache **)
3116         afs_osi_Alloc(sizeof(struct dcache *) * afiles);
3117     memset((char *)afs_indexTable, 0, sizeof(struct dcache *) * afiles);
3118     afs_indexTimes = (afs_hyper_t *) afs_osi_Alloc(afiles * sizeof(afs_hyper_t));
3119     memset((char *)afs_indexTimes, 0, afiles * sizeof(afs_hyper_t));
3120     afs_indexUnique = (afs_int32 *) afs_osi_Alloc(afiles * sizeof(afs_uint32));
3121     memset((char *)afs_indexUnique, 0, afiles * sizeof(afs_uint32));
3122     afs_indexFlags = (u_char *) afs_osi_Alloc(afiles * sizeof(u_char));
3123     memset((char *)afs_indexFlags, 0, afiles * sizeof(char));
3124     
3125     /* Allocate and thread the struct dcache entries themselves */
3126     tdp = afs_Initial_freeDSList =
3127         (struct dcache *) afs_osi_Alloc(aDentries * sizeof(struct dcache));
3128     memset((char *)tdp, 0, aDentries * sizeof(struct dcache));
3129 #ifdef  KERNEL_HAVE_PIN
3130     pin((char *)afs_indexTable, sizeof(struct dcache *) * afiles);/* XXX */    
3131     pin((char *)afs_indexTimes, sizeof(afs_hyper_t) * afiles);  /* XXX */    
3132     pin((char *)afs_indexFlags, sizeof(char) * afiles);         /* XXX */    
3133     pin((char *)afs_indexUnique, sizeof(afs_int32) * afiles);   /* XXX */    
3134     pin((char *)tdp, aDentries * sizeof(struct dcache));        /* XXX */    
3135     pin((char *)afs_dvhashTbl, sizeof(afs_int32) * afs_dhashsize);      /* XXX */    
3136     pin((char *)afs_dchashTbl, sizeof(afs_int32) * afs_dhashsize);      /* XXX */    
3137     pin((char *)afs_dcnextTbl, sizeof(afs_int32) * afiles);             /* XXX */    
3138     pin((char *)afs_dvnextTbl, sizeof(afs_int32) * afiles);             /* XXX */    
3139 #endif
3140
3141     afs_freeDSList = &tdp[0];
3142     for(i=0; i < aDentries-1; i++) {
3143         tdp[i].lruq.next = (struct afs_q *) (&tdp[i+1]);
3144     }
3145     tdp[aDentries-1].lruq.next = (struct afs_q *) 0;
3146
3147     afs_stats_cmperf.cacheBlocksOrig = afs_stats_cmperf.cacheBlocksTotal = afs_cacheBlocks = ablocks;
3148     afs_ComputeCacheParms();    /* compute parms based on cache size */
3149
3150     afs_dcentries = aDentries;
3151     afs_blocksUsed = 0;
3152     QInit(&afs_DLRU);
3153 }
3154
3155 /*
3156  * shutdown_dcache
3157  *
3158  */
3159 void shutdown_dcache(void)
3160 {
3161     int i;
3162
3163     afs_osi_Free(afs_dvnextTbl, afs_cacheFiles * sizeof(afs_int32));
3164     afs_osi_Free(afs_dcnextTbl, afs_cacheFiles * sizeof(afs_int32));
3165     afs_osi_Free(afs_indexTable, afs_cacheFiles * sizeof(struct dcache *));
3166     afs_osi_Free(afs_indexTimes, afs_cacheFiles * sizeof(afs_hyper_t));
3167     afs_osi_Free(afs_indexUnique, afs_cacheFiles * sizeof(afs_uint32));
3168     afs_osi_Free(afs_indexFlags, afs_cacheFiles * sizeof(u_char));
3169     afs_osi_Free(afs_Initial_freeDSList, afs_dcentries * sizeof(struct dcache));
3170 #ifdef  KERNEL_HAVE_PIN
3171     unpin((char *)afs_dcnextTbl, afs_cacheFiles * sizeof(afs_int32));
3172     unpin((char *)afs_dvnextTbl, afs_cacheFiles * sizeof(afs_int32));
3173     unpin((char *)afs_indexTable, afs_cacheFiles * sizeof(struct dcache *));
3174     unpin((char *)afs_indexTimes, afs_cacheFiles * sizeof(afs_hyper_t));
3175     unpin((char *)afs_indexUnique, afs_cacheFiles * sizeof(afs_uint32));
3176     unpin((u_char *)afs_indexFlags, afs_cacheFiles * sizeof(u_char));
3177     unpin(afs_Initial_freeDSList, afs_dcentries * sizeof(struct dcache));
3178 #endif
3179
3180
3181     for(i=0;i< afs_dhashsize;i++) {
3182         afs_dvhashTbl[i] = NULLIDX;
3183         afs_dchashTbl[i] = NULLIDX;
3184     }
3185
3186
3187     afs_blocksUsed = afs_dcentries = 0;
3188     hzero(afs_indexCounter);
3189
3190     afs_freeDCCount =  0;
3191     afs_freeDCList = NULLIDX;
3192     afs_discardDCList = NULLIDX;
3193     afs_freeDSList = afs_Initial_freeDSList = 0;
3194
3195     LOCK_INIT(&afs_xdcache, "afs_xdcache");
3196     QInit(&afs_DLRU);
3197
3198 }