Tidy up uio_t meaning
[openafs.git] / src / afs / VNOPS / afs_vnop_write.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 /*
11  * Implements:
12  * afs_write
13  * afs_UFSWriteUIO
14  * afs_StoreOnLastReference
15  * afs_close
16  * afs_fsync
17  */
18
19 #include <afsconfig.h>
20 #include "afs/param.h"
21
22
23 #include "afs/sysincludes.h"    /* Standard vendor system headers */
24 #include "afsincludes.h"        /* Afs-based standard headers */
25 #include "afs/afs_stats.h"      /* statistics */
26 #include "afs/afs_cbqueue.h"
27 #include "afs/nfsclient.h"
28 #include "afs/afs_osidnlc.h"
29
30
31 extern unsigned char *afs_indexFlags;
32
33 /* Called by all write-on-close routines: regular afs_close,
34  * store via background daemon and store via the
35  * afs_FlushActiveVCaches routine (when CCORE is on).
36  * avc->lock must be write-locked.
37  */
38 int
39 afs_StoreOnLastReference(struct vcache *avc,
40                          struct vrequest *treq)
41 {
42     int code = 0;
43
44     AFS_STATCNT(afs_StoreOnLastReference);
45     /* if CCore flag is set, we clear it and do the extra decrement
46      * ourselves now. If we're called by the CCore clearer, the CCore
47      * flag will already be clear, so we don't have to worry about
48      * clearing it twice. */
49     if (avc->f.states & CCore) {
50         avc->f.states &= ~CCore;
51 #if defined(AFS_SGI_ENV)
52         osi_Assert(avc->opens > 0 && avc->execsOrWriters > 0);
53 #endif
54         /* WARNING: Our linux cm code treats the execsOrWriters counter differently 
55          * depending on the flags the file was opened with. So, if you make any 
56          * changes to the way the execsOrWriters flag is handled check with the 
57          * top level code.  */
58         avc->opens--;
59         avc->execsOrWriters--;
60         AFS_RELE(AFSTOV(avc));  /* VN_HOLD at set CCore(afs_FakeClose) */
61         crfree((afs_ucred_t *)avc->linkData);   /* "crheld" in afs_FakeClose */
62         avc->linkData = NULL;
63     }
64
65     if (!AFS_IS_DISCONNECTED) {
66         /* Connected. */
67
68         /* Now, send the file back.  Used to require 0 writers left, but now do
69          * it on every close for write, since two closes in a row are harmless
70          * since first will clean all chunks, and second will be noop.  Note that
71          * this will also save confusion when someone keeps a file open
72          * inadvertently, since with old system, writes to the server would never
73          * happen again.
74          */
75         code = afs_StoreAllSegments(avc, treq, AFS_LASTSTORE /*!sync-to-disk */ );
76         /*
77          * We have to do these after the above store in done: in some systems
78          * like aix they'll need to flush all the vm dirty pages to the disk via
79          * the strategy routine. During that all procedure (done under no avc
80          * locks) opens, refcounts would be zero, since it didn't reach the
81          * afs_{rd,wr} routines which means the vcache is a perfect candidate
82          * for flushing!
83          */
84      } else if (AFS_IS_DISCON_RW) {
85         afs_DisconAddDirty(avc, VDisconWriteClose, 0);
86      }          /* if not disconnected */
87
88 #if defined(AFS_SGI_ENV)
89     osi_Assert(avc->opens > 0 && avc->execsOrWriters > 0);
90 #endif
91
92     avc->opens--;
93     avc->execsOrWriters--;
94     return code;
95 }
96
97 int
98 afs_UFSWriteUIO(struct vcache *avc, afs_dcache_id_t *inode, struct uio *tuiop)
99 {
100     struct osi_file *tfile;
101     int code;
102
103     tfile = (struct osi_file *)osi_UFSOpen(inode);
104 #if defined(AFS_AIX41_ENV)
105     AFS_GUNLOCK();
106     code = VNOP_RDWR(tfile->vnode, UIO_WRITE, FWRITE, tuiop, NULL, NULL,
107                      NULL, afs_osi_credp);
108     AFS_GLOCK();
109 #elif defined(AFS_AIX32_ENV)
110     code = VNOP_RDWR(tfile->vnode, UIO_WRITE, FWRITE, tuiop, NULL, NULL);
111 #elif defined(AFS_AIX_ENV)
112     code = VNOP_RDWR(tfile->vnode, UIO_WRITE, FWRITE, (off_t) &offset,
113                      tuiop, NULL, NULL, -1);
114 #elif defined(AFS_SUN5_ENV)
115     AFS_GUNLOCK();
116 # ifdef AFS_SUN510_ENV
117     {
118         caller_context_t ct;
119
120         VOP_RWLOCK(tfile->vnode, 1, &ct);
121         code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp, &ct);
122         VOP_RWUNLOCK(tfile->vnode, 1, &ct);
123     }
124 # else
125     VOP_RWLOCK(tfile->vnode, 1);
126     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
127     VOP_RWUNLOCK(tfile->vnode, 1);
128 # endif
129     AFS_GLOCK();
130     if (code == ENOSPC)
131         afs_warnuser
132             ("\n\n\n*** Cache partition is full - decrease cachesize!!! ***\n\n\n");
133 #elif defined(AFS_SGI_ENV)
134     AFS_GUNLOCK();
135     avc->f.states |= CWritingUFS;
136     AFS_VOP_RWLOCK(tfile->vnode, VRWLOCK_WRITE);
137     AFS_VOP_WRITE(tfile->vnode, tuiop, IO_ISLOCKED, afs_osi_credp, code);
138     AFS_VOP_RWUNLOCK(tfile->vnode, VRWLOCK_WRITE);
139     avc->f.states &= ~CWritingUFS;
140     AFS_GLOCK();
141 #elif defined(AFS_HPUX100_ENV)
142     {
143         AFS_GUNLOCK();
144         code = VOP_RDWR(tfile->vnode, tuiop, UIO_WRITE, 0, afs_osi_credp);
145         AFS_GLOCK();
146     }
147 #elif defined(AFS_LINUX20_ENV)
148     AFS_GUNLOCK();
149     code = osi_rdwr(tfile, tuiop, UIO_WRITE);
150     AFS_GLOCK();
151 #elif defined(AFS_DARWIN80_ENV)
152     AFS_GUNLOCK();
153     code = VNOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_ctxtp);
154     AFS_GLOCK();
155 #elif defined(AFS_DARWIN_ENV)
156     AFS_GUNLOCK();
157     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE, current_proc());
158     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
159     VOP_UNLOCK(tfile->vnode, 0, current_proc());
160     AFS_GLOCK();
161 #elif defined(AFS_FBSD80_ENV)
162     AFS_GUNLOCK();
163     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE);
164     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
165     VOP_UNLOCK(tfile->vnode, 0);
166     AFS_GLOCK();
167 #elif defined(AFS_FBSD_ENV)
168     AFS_GUNLOCK();
169     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE, curthread);
170     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
171     VOP_UNLOCK(tfile->vnode, 0, curthread);
172     AFS_GLOCK();
173 #elif defined(AFS_NBSD_ENV)
174     AFS_GUNLOCK();
175     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE);
176     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
177 #if defined(AFS_NBSD60_ENV)
178     VOP_UNLOCK(tfile->vnode);
179 #else
180     VOP_UNLOCK(tfile->vnode, 0);
181 #endif
182     AFS_GLOCK();
183 #elif defined(AFS_XBSD_ENV)
184     AFS_GUNLOCK();
185     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE, curproc);
186     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
187     VOP_UNLOCK(tfile->vnode, 0, curproc);
188     AFS_GLOCK();
189 #else
190 # ifdef AFS_HPUX_ENV
191     tuio.uio_fpflags &= ~FSYNCIO;       /* don't do sync io */
192 # endif
193     code = VOP_RDWR(tfile->vnode, tuiop, UIO_WRITE, 0, afs_osi_credp);
194 #endif
195     osi_UFSClose(tfile);
196
197     return code;
198 }
199
200 /* called on writes */
201 int
202 afs_write(struct vcache *avc, struct uio *auio, int aio,
203              afs_ucred_t *acred, int noLock)
204 {
205     afs_size_t totalLength;
206     afs_size_t transferLength;
207     afs_size_t filePos;
208     afs_size_t offset, len;
209     afs_int32 tlen;
210     afs_int32 trimlen;
211     afs_int32 startDate;
212     afs_int32 max;
213     struct dcache *tdc;
214 #ifdef _HIGHC_
215     volatile
216 #endif
217     afs_int32 error;
218 #if defined(AFS_FBSD_ENV) || defined(AFS_DFBSD_ENV)
219     struct vnode *vp = AFSTOV(avc);
220 #endif
221 #ifdef AFS_DARWIN80_ENV
222     uio_t tuiop = NULL;
223 #else
224     struct uio tuio;
225     struct uio *tuiop = &tuio;
226     struct iovec *tvec;         /* again, should have define */
227 #endif
228     afs_int32 code;
229     struct vrequest treq;
230
231     AFS_STATCNT(afs_write);
232
233     if (avc->vc_error)
234         return avc->vc_error;
235
236     if (AFS_IS_DISCONNECTED && !AFS_IS_DISCON_RW)
237         return ENETDOWN;
238     
239     startDate = osi_Time();
240     if ((code = afs_InitReq(&treq, acred)))
241         return code;
242     /* otherwise we read */
243     totalLength = AFS_UIO_RESID(auio);
244     filePos = AFS_UIO_OFFSET(auio);
245     error = 0;
246     transferLength = 0;
247     afs_Trace4(afs_iclSetp, CM_TRACE_WRITE, ICL_TYPE_POINTER, avc,
248                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(filePos), ICL_TYPE_OFFSET,
249                ICL_HANDLE_OFFSET(totalLength), ICL_TYPE_OFFSET,
250                ICL_HANDLE_OFFSET(avc->f.m.Length));
251     if (!noLock) {
252         afs_MaybeWakeupTruncateDaemon();
253         ObtainWriteLock(&avc->lock, 556);
254     }
255 #if defined(AFS_SGI_ENV)
256     {
257         off_t diff;
258         /*
259          * afs_xwrite handles setting m.Length
260          * and handles APPEND mode.
261          * Since we are called via strategy, we need to trim the write to
262          * the actual size of the file
263          */
264         osi_Assert(filePos <= avc->f.m.Length);
265         diff = avc->f.m.Length - filePos;
266         AFS_UIO_SETRESID(auio, MIN(totalLength, diff));
267         totalLength = AFS_UIO_RESID(auio);
268     }
269 #else
270     if (aio & IO_APPEND) {
271         /* append mode, start it at the right spot */
272 #if     defined(AFS_SUN56_ENV)
273         auio->uio_loffset = 0;
274 #endif
275         filePos = avc->f.m.Length;
276         AFS_UIO_SETOFFSET(auio, avc->f.m.Length);
277     }
278 #endif
279     /*
280      * Note that we use startDate rather than calling osi_Time() here.
281      * This is to avoid counting lock-waiting time in file date (for ranlib).
282      */
283     avc->f.m.Date = startDate;
284
285 #if     defined(AFS_HPUX_ENV)
286 #if     defined(AFS_HPUX101_ENV)
287     if ((totalLength + filePos) >> 9 >
288         p_rlimit(u.u_procp)[RLIMIT_FSIZE].rlim_cur) {
289 #else
290     if ((totalLength + filePos) >> 9 > u.u_rlimit[RLIMIT_FSIZE].rlim_cur) {
291 #endif
292         if (!noLock)
293             ReleaseWriteLock(&avc->lock);
294         return (EFBIG);
295     }
296 #endif
297 #if defined(AFS_VM_RDWR_ENV) && !defined(AFS_FAKEOPEN_ENV)
298     /*
299      * If write is implemented via VM, afs_FakeOpen() is called from the
300      * high-level write op.
301      */
302     if (avc->execsOrWriters <= 0) {
303         afs_warn("WARNING: afs_ufswr vcp=%lx, exOrW=%d\n", (unsigned long)avc,
304                avc->execsOrWriters);
305     }
306 #else
307     afs_FakeOpen(avc);
308 #endif
309     avc->f.states |= CDirty;
310 #ifndef AFS_DARWIN80_ENV
311     tvec = osi_AllocSmallSpace(sizeof(struct iovec));
312 #endif
313     while (totalLength > 0) {
314         tdc = afs_ObtainDCacheForWriting(avc, filePos, totalLength, &treq, 
315                                          noLock);
316         if (!tdc) {
317             error = EIO;
318             break;
319         }
320         len = totalLength;      /* write this amount by default */
321         offset = filePos - AFS_CHUNKTOBASE(tdc->f.chunk);
322         max = AFS_CHUNKTOSIZE(tdc->f.chunk);    /* max size of this chunk */
323         if (max <= len + offset) {      /*if we'd go past the end of this chunk */
324             /* it won't all fit in this chunk, so write as much
325              * as will fit */
326             len = max - offset;
327         }
328
329 #ifdef  AFS_DARWIN80_ENV
330         if (tuiop)
331             uio_free(tuiop);
332         trimlen = len;
333         tuiop = afsio_darwin_partialcopy(auio, trimlen);
334 #else
335         /* mung uio structure to be right for this transfer */
336         afsio_copy(auio, &tuio, tvec);
337         trimlen = len;
338         afsio_trim(&tuio, trimlen);
339 #endif
340         AFS_UIO_SETOFFSET(tuiop, offset);
341
342         code = (*(afs_cacheType->vwriteUIO))(avc, &tdc->f.inode, tuiop);
343
344         if (code) {
345             void *cfile;
346
347             error = code;
348             ZapDCE(tdc);        /* bad data */
349             cfile = afs_CFileOpen(&tdc->f.inode);
350             afs_CFileTruncate(cfile, 0);
351             afs_CFileClose(cfile);
352             afs_AdjustSize(tdc, 0);     /* sets f.chunkSize to 0 */
353
354             afs_stats_cmperf.cacheCurrDirtyChunks--;
355             afs_indexFlags[tdc->index] &= ~IFDataMod;   /* so it does disappear */
356             ReleaseWriteLock(&tdc->lock);
357             afs_PutDCache(tdc);
358             break;
359         }
360         /* otherwise we've written some, fixup length, etc and continue with next seg */
361         len = len - AFS_UIO_RESID(tuiop);       /* compute amount really transferred */
362         tlen = len;
363         afsio_skip(auio, tlen); /* advance auio over data written */
364         /* compute new file size */
365         if (offset + len > tdc->f.chunkBytes) {
366             afs_int32 tlength = offset + len;
367             afs_AdjustSize(tdc, tlength);
368             if (tdc->validPos < filePos + len)
369                 tdc->validPos = filePos + len;
370         }
371         totalLength -= len;
372         transferLength += len;
373         filePos += len;
374 #if defined(AFS_SGI_ENV)
375         /* afs_xwrite handles setting m.Length */
376         osi_Assert(filePos <= avc->f.m.Length);
377 #else
378         if (filePos > avc->f.m.Length) {
379             if (AFS_IS_DISCON_RW)
380                 afs_PopulateDCache(avc, filePos, &treq);
381             afs_Trace4(afs_iclSetp, CM_TRACE_SETLENGTH, ICL_TYPE_STRING,
382                        __FILE__, ICL_TYPE_LONG, __LINE__, ICL_TYPE_OFFSET,
383                        ICL_HANDLE_OFFSET(avc->f.m.Length), ICL_TYPE_OFFSET,
384                        ICL_HANDLE_OFFSET(filePos));
385             avc->f.m.Length = filePos;
386 #if defined(AFS_FBSD_ENV) || defined(AFS_DFBSD_ENV)
387             vnode_pager_setsize(vp, filePos);
388 #endif
389         }
390 #endif
391         ReleaseWriteLock(&tdc->lock);
392         afs_PutDCache(tdc);
393 #if !defined(AFS_VM_RDWR_ENV)
394         /*
395          * If write is implemented via VM, afs_DoPartialWrite() is called from
396          * the high-level write op.
397          */
398         if (!noLock) {
399             code = afs_DoPartialWrite(avc, &treq);
400             if (code) {
401                 error = code;
402                 break;
403             }
404         }
405 #endif
406     }
407 #if !defined(AFS_VM_RDWR_ENV) || defined(AFS_FAKEOPEN_ENV)
408     afs_FakeClose(avc, acred);
409 #endif
410     error = afs_CheckCode(error, &treq, 7);
411     /* This set is here so we get the CheckCode. */
412     if (error && !avc->vc_error)
413         avc->vc_error = error;
414     if (!noLock)
415         ReleaseWriteLock(&avc->lock);
416 #ifdef AFS_DARWIN80_ENV
417     uio_free(tuiop);
418 #else
419     osi_FreeSmallSpace(tvec);
420 #endif
421 #ifndef AFS_VM_RDWR_ENV
422     /*
423      * If write is implemented via VM, afs_fsync() is called from the high-level
424      * write op.
425      */
426 #if defined(AFS_DARWIN_ENV) || defined(AFS_XBSD_ENV)
427     if (noLock && (aio & IO_SYNC)) {
428 #else
429 #ifdef  AFS_HPUX_ENV
430     /* On hpux on synchronous writes syncio will be set to IO_SYNC. If
431      * we're doing them because the file was opened with O_SYNCIO specified,
432      * we have to look in the u area. No single mechanism here!!
433      */
434     if (noLock && ((aio & IO_SYNC) | (auio->uio_fpflags & FSYNCIO))) {
435 #else
436     if (noLock && (aio & FSYNC)) {
437 #endif
438 #endif
439         if (!AFS_NFSXLATORREQ(acred))
440             afs_fsync(avc, acred);
441     }
442 #endif
443     return error;
444 }
445
446 /* do partial write if we're low on unmodified chunks */
447 int
448 afs_DoPartialWrite(struct vcache *avc, struct vrequest *areq)
449 {
450     afs_int32 code;
451
452     if (afs_stats_cmperf.cacheCurrDirtyChunks <=
453         afs_stats_cmperf.cacheMaxDirtyChunks
454         || AFS_IS_DISCONNECTED)
455         return 0;               /* nothing to do */
456     /* otherwise, call afs_StoreDCache (later try to do this async, if possible) */
457     afs_Trace2(afs_iclSetp, CM_TRACE_PARTIALWRITE, ICL_TYPE_POINTER, avc,
458                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(avc->f.m.Length));
459
460 #if     defined(AFS_SUN5_ENV)
461     code = afs_StoreAllSegments(avc, areq, AFS_ASYNC | AFS_VMSYNC_INVAL);
462 #else
463     code = afs_StoreAllSegments(avc, areq, AFS_ASYNC);
464 #endif
465     return code;
466 }
467
468 /* handle any closing cleanup stuff */
469 int
470 #if defined(AFS_SGI65_ENV)
471 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, lastclose_t lastclose,
472           afs_ucred_t *acred)
473 #elif defined(AFS_SGI64_ENV)
474 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, lastclose_t lastclose,
475           off_t offset, afs_ucred_t *acred, struct flid *flp)
476 #elif defined(AFS_SGI_ENV)
477 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, lastclose_t lastclose
478           off_t offset, afs_ucred_t *acred)
479 #elif defined(AFS_SUN5_ENV)
480 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, int count, offset_t offset, 
481          afs_ucred_t *acred)
482 #else
483 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, afs_ucred_t *acred)
484 #endif
485 {
486     afs_int32 code;
487     struct brequest *tb;
488     struct vrequest treq;
489 #ifdef AFS_SGI65_ENV
490     struct flid flid;
491 #endif
492     struct afs_fakestat_state fakestat;
493     OSI_VC_CONVERT(avc);
494
495     AFS_STATCNT(afs_close);
496     afs_Trace2(afs_iclSetp, CM_TRACE_CLOSE, ICL_TYPE_POINTER, avc,
497                ICL_TYPE_INT32, aflags);
498     code = afs_InitReq(&treq, acred);
499     if (code)
500         return code;
501     afs_InitFakeStat(&fakestat);
502     code = afs_EvalFakeStat(&avc, &fakestat, &treq);
503     if (code) {
504         afs_PutFakeStat(&fakestat);
505         return code;
506     }
507     AFS_DISCON_LOCK();
508 #ifdef  AFS_SUN5_ENV
509     if (avc->flockCount) {
510         HandleFlock(avc, LOCK_UN, &treq, 0, 1 /*onlymine */ );
511     }
512 #endif
513 #if defined(AFS_SGI_ENV)
514     if (!lastclose) {
515         afs_PutFakeStat(&fakestat);
516         AFS_DISCON_UNLOCK();
517         return 0;
518     }
519     /* unlock any locks for pid - could be wrong for child .. */
520     AFS_RWLOCK((vnode_t *) avc, VRWLOCK_WRITE);
521 # ifdef AFS_SGI65_ENV
522     get_current_flid(&flid);
523     cleanlocks((vnode_t *) avc, flid.fl_pid, flid.fl_sysid);
524     HandleFlock(avc, LOCK_UN, &treq, flid.fl_pid, 1 /*onlymine */ );
525 # else
526 #  ifdef AFS_SGI64_ENV
527     cleanlocks((vnode_t *) avc, flp);
528 #  else /* AFS_SGI64_ENV */
529     cleanlocks((vnode_t *) avc, u.u_procp->p_epid, u.u_procp->p_sysid);
530 #  endif /* AFS_SGI64_ENV */
531     HandleFlock(avc, LOCK_UN, &treq, OSI_GET_CURRENT_PID(), 1 /*onlymine */ );
532 # endif /* AFS_SGI65_ENV */
533     /* afs_chkpgoob will drop and re-acquire the global lock. */
534     afs_chkpgoob(&avc->v, btoc(avc->f.m.Length));
535 #elif defined(AFS_SUN5_ENV)
536     if (count > 1) {
537         /* The vfs layer may call this repeatedly with higher "count"; only
538          * on the last close (i.e. count = 1) we should actually proceed
539          * with the close. */
540         afs_PutFakeStat(&fakestat);
541         AFS_DISCON_UNLOCK();
542         return 0;
543     }
544 #else
545     if (avc->flockCount) {      /* Release Lock */
546         HandleFlock(avc, LOCK_UN, &treq, 0, 1 /*onlymine */ );
547     }
548 #endif
549     if (aflags & (FWRITE | FTRUNC)) {
550         if (afs_BBusy() || (AFS_NFSXLATORREQ(acred)) || AFS_IS_DISCONNECTED) {
551             /* do it yourself if daemons are all busy */
552             ObtainWriteLock(&avc->lock, 124);
553             code = afs_StoreOnLastReference(avc, &treq);
554             ReleaseWriteLock(&avc->lock);
555 #if defined(AFS_SGI_ENV)
556             AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
557 #endif
558         } else {
559 #if defined(AFS_SGI_ENV)
560             AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
561 #endif
562             /* at least one daemon is idle, so ask it to do the store.
563              * Also, note that  we don't lock it any more... */
564             tb = afs_BQueue(BOP_STORE, avc, 0, 1, acred,
565                             (afs_size_t) afs_cr_uid(acred), (afs_size_t) 0,
566                             (void *)0, (void *)0, (void *)0);
567             /* sleep waiting for the store to start, then retrieve error code */
568             while ((tb->flags & BUVALID) == 0) {
569                 tb->flags |= BUWAIT;
570                 afs_osi_Sleep(tb);
571             }
572             code = tb->code;
573             afs_BRelease(tb);
574         }
575
576         /* VNOVNODE is "acceptable" error code from close, since
577          * may happen when deleting a file on another machine while
578          * it is open here. We do the same for ENOENT since in afs_CheckCode we map VNOVNODE -> ENOENT */
579         if (code == VNOVNODE || code == ENOENT)
580             code = 0;
581
582         /* Ensure last closer gets the error. If another thread caused
583          * DoPartialWrite and this thread does not actually store the data,
584          * it may not see the quota error.
585          */
586         ObtainWriteLock(&avc->lock, 406);
587         if (avc->vc_error) {
588 #ifdef AFS_AIX32_ENV
589             osi_ReleaseVM(avc, acred);
590 #endif
591             /* printf("avc->vc_error=%d\n", avc->vc_error); */
592             code = avc->vc_error;
593             avc->vc_error = 0;
594         }
595         ReleaseWriteLock(&avc->lock);
596
597         /* some codes merit specific complaint */
598         if (code < 0) {
599             afs_warnuser("afs: failed to store file (network problems)\n");
600         }
601 #ifdef  AFS_SUN5_ENV
602         else if (code == ENOSPC) {
603             afs_warnuser
604                 ("afs: failed to store file (over quota or partition full)\n");
605         }
606 #else
607         else if (code == ENOSPC) {
608             afs_warnuser("afs: failed to store file (partition full)\n");
609         } else if (code == EDQUOT) {
610             afs_warnuser("afs: failed to store file (over quota)\n");
611         }
612 #endif
613         else if (code != 0)
614             afs_warnuser("afs: failed to store file (%d)\n", code);
615
616         /* finally, we flush any text pages lying around here */
617         hzero(avc->flushDV);
618         osi_FlushText(avc);
619     } else {
620 #if defined(AFS_SGI_ENV)
621         AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
622         osi_Assert(avc->opens > 0);
623 #endif
624         /* file open for read */
625         ObtainWriteLock(&avc->lock, 411);
626         if (avc->vc_error) {
627 #ifdef AFS_AIX32_ENV
628             osi_ReleaseVM(avc, acred);
629 #endif
630             code = avc->vc_error;
631             avc->vc_error = 0;
632         }
633 #if defined(AFS_FBSD80_ENV)
634         /* XXX */
635         if (!avc->opens) {
636             afs_int32 opens, is_free, is_gone, is_doomed, iflag;
637             struct vnode *vp = AFSTOV(avc);
638             VI_LOCK(vp);
639             is_doomed =  vp->v_iflag & VI_DOOMED;
640             is_free = vp->v_iflag & VI_FREE;
641             is_gone = vp->v_iflag & VI_DOINGINACT;
642             iflag = vp->v_iflag;
643             VI_UNLOCK(vp);
644             opens = avc->opens;
645             afs_warn("afs_close avc %p vp %p opens %d free %d doinginact %d doomed %d iflag %d\n",
646                      avc, vp, opens, is_free, is_gone, is_doomed, iflag);
647         }
648 #endif
649         avc->opens--;
650         ReleaseWriteLock(&avc->lock);
651     }
652     AFS_DISCON_UNLOCK();
653     afs_PutFakeStat(&fakestat);
654     code = afs_CheckCode(code, &treq, 5);
655     return code;
656 }
657
658
659 int
660 #if defined(AFS_SGI_ENV) || defined(AFS_SUN53_ENV)
661 afs_fsync(OSI_VC_DECL(avc), int flag, afs_ucred_t *acred
662 # ifdef AFS_SGI65_ENV
663           , off_t start, off_t stop
664 # endif /* AFS_SGI65_ENV */
665     )
666 #else /* !SUN53 && !SGI */
667 afs_fsync(OSI_VC_DECL(avc), afs_ucred_t *acred)
668 #endif 
669 {
670     afs_int32 code;
671     struct vrequest treq;
672     OSI_VC_CONVERT(avc);
673
674     if (avc->vc_error)
675         return avc->vc_error;
676
677 #if defined(AFS_SUN5_ENV)
678     /* back out if called from NFS server */
679     if (curthread->t_flag & T_DONTPEND)
680         return 0;
681 #endif
682
683     AFS_STATCNT(afs_fsync);
684     afs_Trace1(afs_iclSetp, CM_TRACE_FSYNC, ICL_TYPE_POINTER, avc);
685     if ((code = afs_InitReq(&treq, acred)))
686         return code;
687     AFS_DISCON_LOCK();
688 #if defined(AFS_SGI_ENV)
689     AFS_RWLOCK((vnode_t *) avc, VRWLOCK_WRITE);
690     if (flag & FSYNC_INVAL)
691         osi_VM_FSyncInval(avc);
692 #endif /* AFS_SGI_ENV */
693
694     ObtainSharedLock(&avc->lock, 18);
695     code = 0;
696     if (avc->execsOrWriters > 0) {
697         if (!AFS_IS_DISCONNECTED && !AFS_IS_DISCON_RW) {
698             /* Your average flush. */
699             
700             /* put the file back */
701             UpgradeSToWLock(&avc->lock, 41);
702             code = afs_StoreAllSegments(avc, &treq, AFS_SYNC);
703             ConvertWToSLock(&avc->lock);
704         } else {
705             UpgradeSToWLock(&avc->lock, 711);
706             afs_DisconAddDirty(avc, VDisconWriteFlush, 1);
707             ConvertWToSLock(&avc->lock);
708         }               /* if not disconnected */
709     }                   /* if (avc->execsOrWriters > 0) */
710
711 #if defined(AFS_SGI_ENV)
712     AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
713     if (code == VNOVNODE) {
714         /* syncing an unlinked file! - non-informative to pass an errno
715          * 102 (== VNOVNODE) to user
716          */
717         code = ENOENT;
718     }
719 #endif
720     AFS_DISCON_UNLOCK();
721     code = afs_CheckCode(code, &treq, 33);
722     ReleaseSharedLock(&avc->lock);
723     return code;
724 }