afs: Return raw code from background daemons
[openafs.git] / src / afs / VNOPS / afs_vnop_write.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 /*
11  * Implements:
12  * afs_write
13  * afs_UFSWriteUIO
14  * afs_StoreOnLastReference
15  * afs_close
16  * afs_fsync
17  */
18
19 #include <afsconfig.h>
20 #include "afs/param.h"
21
22
23 #include "afs/sysincludes.h"    /* Standard vendor system headers */
24 #include "afsincludes.h"        /* Afs-based standard headers */
25 #include "afs/afs_stats.h"      /* statistics */
26 #include "afs/afs_cbqueue.h"
27 #include "afs/nfsclient.h"
28 #include "afs/afs_osidnlc.h"
29
30
31 extern unsigned char *afs_indexFlags;
32
33 /* Called by all write-on-close routines: regular afs_close,
34  * store via background daemon and store via the
35  * afs_FlushActiveVCaches routine (when CCORE is on).
36  * avc->lock must be write-locked.
37  */
38 int
39 afs_StoreOnLastReference(struct vcache *avc,
40                          struct vrequest *treq)
41 {
42     int code = 0;
43
44     AFS_STATCNT(afs_StoreOnLastReference);
45     /* if CCore flag is set, we clear it and do the extra decrement
46      * ourselves now. If we're called by the CCore clearer, the CCore
47      * flag will already be clear, so we don't have to worry about
48      * clearing it twice. */
49     if (avc->f.states & CCore) {
50         afs_ucred_t *cred;
51
52         avc->f.states &= ~CCore;
53 #if defined(AFS_SGI_ENV)
54         osi_Assert(avc->opens > 0 && avc->execsOrWriters > 0);
55 #endif
56         /* WARNING: Our linux cm code treats the execsOrWriters counter differently 
57          * depending on the flags the file was opened with. So, if you make any 
58          * changes to the way the execsOrWriters flag is handled check with the 
59          * top level code.  */
60         avc->opens--;
61         avc->execsOrWriters--;
62         AFS_RELE(AFSTOV(avc));  /* VN_HOLD at set CCore(afs_FakeClose) */
63         cred = (afs_ucred_t *)avc->linkData;    /* "crheld" in afs_FakeClose */
64         crfree(cred);
65         avc->linkData = NULL;
66     }
67
68     if (!AFS_IS_DISCONNECTED) {
69         /* Connected. */
70
71         /* Now, send the file back.  Used to require 0 writers left, but now do
72          * it on every close for write, since two closes in a row are harmless
73          * since first will clean all chunks, and second will be noop.  Note that
74          * this will also save confusion when someone keeps a file open
75          * inadvertently, since with old system, writes to the server would never
76          * happen again.
77          */
78         code = afs_StoreAllSegments(avc, treq, AFS_LASTSTORE /*!sync-to-disk */ );
79         /*
80          * We have to do these after the above store in done: in some systems
81          * like aix they'll need to flush all the vm dirty pages to the disk via
82          * the strategy routine. During that all procedure (done under no avc
83          * locks) opens, refcounts would be zero, since it didn't reach the
84          * afs_{rd,wr} routines which means the vcache is a perfect candidate
85          * for flushing!
86          */
87      } else if (AFS_IS_DISCON_RW) {
88         afs_DisconAddDirty(avc, VDisconWriteClose, 0);
89      }          /* if not disconnected */
90
91 #if defined(AFS_SGI_ENV)
92     osi_Assert(avc->opens > 0 && avc->execsOrWriters > 0);
93 #endif
94
95     avc->opens--;
96     avc->execsOrWriters--;
97     return code;
98 }
99
100 int
101 afs_UFSWriteUIO(struct vcache *avc, afs_dcache_id_t *inode, struct uio *tuiop)
102 {
103     struct osi_file *tfile;
104     int code;
105
106     tfile = (struct osi_file *)osi_UFSOpen(inode);
107 #if defined(AFS_AIX41_ENV)
108     AFS_GUNLOCK();
109     code = VNOP_RDWR(tfile->vnode, UIO_WRITE, FWRITE, tuiop, NULL, NULL,
110                      NULL, afs_osi_credp);
111     AFS_GLOCK();
112 #elif defined(AFS_AIX32_ENV)
113     code = VNOP_RDWR(tfile->vnode, UIO_WRITE, FWRITE, tuiop, NULL, NULL);
114 #elif defined(AFS_AIX_ENV)
115     code = VNOP_RDWR(tfile->vnode, UIO_WRITE, FWRITE, (off_t) &offset,
116                      tuiop, NULL, NULL, -1);
117 #elif defined(AFS_SUN5_ENV)
118     AFS_GUNLOCK();
119 # ifdef AFS_SUN510_ENV
120     {
121         caller_context_t ct;
122
123         VOP_RWLOCK(tfile->vnode, 1, &ct);
124         code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp, &ct);
125         VOP_RWUNLOCK(tfile->vnode, 1, &ct);
126     }
127 # else
128     VOP_RWLOCK(tfile->vnode, 1);
129     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
130     VOP_RWUNLOCK(tfile->vnode, 1);
131 # endif
132     AFS_GLOCK();
133     if (code == ENOSPC)
134         afs_warnuser
135             ("\n\n\n*** Cache partition is full - decrease cachesize!!! ***\n\n\n");
136 #elif defined(AFS_SGI_ENV)
137     AFS_GUNLOCK();
138     avc->f.states |= CWritingUFS;
139     AFS_VOP_RWLOCK(tfile->vnode, VRWLOCK_WRITE);
140     AFS_VOP_WRITE(tfile->vnode, tuiop, IO_ISLOCKED, afs_osi_credp, code);
141     AFS_VOP_RWUNLOCK(tfile->vnode, VRWLOCK_WRITE);
142     avc->f.states &= ~CWritingUFS;
143     AFS_GLOCK();
144 #elif defined(AFS_HPUX100_ENV)
145     {
146         AFS_GUNLOCK();
147         code = VOP_RDWR(tfile->vnode, tuiop, UIO_WRITE, 0, afs_osi_credp);
148         AFS_GLOCK();
149     }
150 #elif defined(AFS_LINUX20_ENV)
151     AFS_GUNLOCK();
152     code = osi_rdwr(tfile, tuiop, UIO_WRITE);
153     AFS_GLOCK();
154 #elif defined(AFS_DARWIN80_ENV)
155     AFS_GUNLOCK();
156     code = VNOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_ctxtp);
157     AFS_GLOCK();
158 #elif defined(AFS_DARWIN_ENV)
159     AFS_GUNLOCK();
160     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE, current_proc());
161     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
162     VOP_UNLOCK(tfile->vnode, 0, current_proc());
163     AFS_GLOCK();
164 #elif defined(AFS_FBSD80_ENV)
165     AFS_GUNLOCK();
166     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE);
167     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
168     VOP_UNLOCK(tfile->vnode, 0);
169     AFS_GLOCK();
170 #elif defined(AFS_FBSD_ENV)
171     AFS_GUNLOCK();
172     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE, curthread);
173     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
174     VOP_UNLOCK(tfile->vnode, 0, curthread);
175     AFS_GLOCK();
176 #elif defined(AFS_NBSD_ENV)
177     AFS_GUNLOCK();
178     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE);
179     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
180 #if defined(AFS_NBSD60_ENV)
181     VOP_UNLOCK(tfile->vnode);
182 #else
183     VOP_UNLOCK(tfile->vnode, 0);
184 #endif
185     AFS_GLOCK();
186 #elif defined(AFS_XBSD_ENV)
187     AFS_GUNLOCK();
188     VOP_LOCK(tfile->vnode, LK_EXCLUSIVE, curproc);
189     code = VOP_WRITE(tfile->vnode, tuiop, 0, afs_osi_credp);
190     VOP_UNLOCK(tfile->vnode, 0, curproc);
191     AFS_GLOCK();
192 #else
193 # ifdef AFS_HPUX_ENV
194     tuio.uio_fpflags &= ~FSYNCIO;       /* don't do sync io */
195 # endif
196     code = VOP_RDWR(tfile->vnode, tuiop, UIO_WRITE, 0, afs_osi_credp);
197 #endif
198     osi_UFSClose(tfile);
199
200     return code;
201 }
202
203 /* called on writes */
204 int
205 afs_write(struct vcache *avc, struct uio *auio, int aio,
206              afs_ucred_t *acred, int noLock)
207 {
208     afs_size_t totalLength;
209     afs_size_t transferLength;
210     afs_size_t filePos;
211     afs_size_t offset, len;
212     afs_int32 tlen;
213     afs_int32 trimlen;
214     afs_int32 startDate;
215     afs_int32 max;
216     struct dcache *tdc;
217 #ifdef _HIGHC_
218     volatile
219 #endif
220     afs_int32 error;
221 #if defined(AFS_FBSD_ENV) || defined(AFS_DFBSD_ENV)
222     struct vnode *vp = AFSTOV(avc);
223 #endif
224     struct uio *tuiop = NULL;
225     afs_int32 code;
226     struct vrequest treq;
227
228     AFS_STATCNT(afs_write);
229
230     if (avc->vc_error)
231         return avc->vc_error;
232
233     if (AFS_IS_DISCONNECTED && !AFS_IS_DISCON_RW)
234         return ENETDOWN;
235     
236     startDate = osi_Time();
237     if ((code = afs_InitReq(&treq, acred)))
238         return code;
239     /* otherwise we read */
240     totalLength = AFS_UIO_RESID(auio);
241     filePos = AFS_UIO_OFFSET(auio);
242     error = 0;
243     transferLength = 0;
244     afs_Trace4(afs_iclSetp, CM_TRACE_WRITE, ICL_TYPE_POINTER, avc,
245                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(filePos), ICL_TYPE_OFFSET,
246                ICL_HANDLE_OFFSET(totalLength), ICL_TYPE_OFFSET,
247                ICL_HANDLE_OFFSET(avc->f.m.Length));
248     if (!noLock) {
249         afs_MaybeWakeupTruncateDaemon();
250         ObtainWriteLock(&avc->lock, 556);
251     }
252 #if defined(AFS_SGI_ENV)
253     {
254         off_t diff;
255         /*
256          * afs_xwrite handles setting m.Length
257          * and handles APPEND mode.
258          * Since we are called via strategy, we need to trim the write to
259          * the actual size of the file
260          */
261         osi_Assert(filePos <= avc->f.m.Length);
262         diff = avc->f.m.Length - filePos;
263         AFS_UIO_SETRESID(auio, MIN(totalLength, diff));
264         totalLength = AFS_UIO_RESID(auio);
265     }
266 #else
267     if (aio & IO_APPEND) {
268         /* append mode, start it at the right spot */
269 #if     defined(AFS_SUN5_ENV)
270         auio->uio_loffset = 0;
271 #endif
272         filePos = avc->f.m.Length;
273         AFS_UIO_SETOFFSET(auio, avc->f.m.Length);
274     }
275 #endif
276     /*
277      * Note that we use startDate rather than calling osi_Time() here.
278      * This is to avoid counting lock-waiting time in file date (for ranlib).
279      */
280     avc->f.m.Date = startDate;
281
282 #if     defined(AFS_HPUX_ENV)
283 #if     defined(AFS_HPUX101_ENV)
284     if ((totalLength + filePos) >> 9 >
285         p_rlimit(u.u_procp)[RLIMIT_FSIZE].rlim_cur) {
286 #else
287     if ((totalLength + filePos) >> 9 > u.u_rlimit[RLIMIT_FSIZE].rlim_cur) {
288 #endif
289         if (!noLock)
290             ReleaseWriteLock(&avc->lock);
291         return (EFBIG);
292     }
293 #endif
294 #if defined(AFS_VM_RDWR_ENV) && !defined(AFS_FAKEOPEN_ENV)
295     /*
296      * If write is implemented via VM, afs_FakeOpen() is called from the
297      * high-level write op.
298      */
299     if (avc->execsOrWriters <= 0) {
300         afs_warn("WARNING: afs_ufswr vcp=%lx, exOrW=%d\n", (unsigned long)avc,
301                avc->execsOrWriters);
302     }
303 #else
304     afs_FakeOpen(avc);
305 #endif
306     avc->f.states |= CDirty;
307
308     while (totalLength > 0) {
309         tdc = afs_ObtainDCacheForWriting(avc, filePos, totalLength, &treq, 
310                                          noLock);
311         if (!tdc) {
312             error = EIO;
313             break;
314         }
315         len = totalLength;      /* write this amount by default */
316         offset = filePos - AFS_CHUNKTOBASE(tdc->f.chunk);
317         max = AFS_CHUNKTOSIZE(tdc->f.chunk);    /* max size of this chunk */
318         if (max <= len + offset) {      /*if we'd go past the end of this chunk */
319             /* it won't all fit in this chunk, so write as much
320              * as will fit */
321             len = max - offset;
322         }
323
324         if (tuiop)
325             afsio_free(tuiop);
326         trimlen = len;
327         tuiop = afsio_partialcopy(auio, trimlen);
328         AFS_UIO_SETOFFSET(tuiop, offset);
329
330         code = (*(afs_cacheType->vwriteUIO))(avc, &tdc->f.inode, tuiop);
331
332         if (code) {
333             void *cfile;
334
335             error = code;
336             ZapDCE(tdc);        /* bad data */
337             cfile = afs_CFileOpen(&tdc->f.inode);
338             afs_CFileTruncate(cfile, 0);
339             afs_CFileClose(cfile);
340             afs_AdjustSize(tdc, 0);     /* sets f.chunkSize to 0 */
341
342             afs_stats_cmperf.cacheCurrDirtyChunks--;
343             afs_indexFlags[tdc->index] &= ~IFDataMod;   /* so it does disappear */
344             ReleaseWriteLock(&tdc->lock);
345             afs_PutDCache(tdc);
346             break;
347         }
348         /* otherwise we've written some, fixup length, etc and continue with next seg */
349         len = len - AFS_UIO_RESID(tuiop);       /* compute amount really transferred */
350         tlen = len;
351         afsio_skip(auio, tlen); /* advance auio over data written */
352         /* compute new file size */
353         if (offset + len > tdc->f.chunkBytes) {
354             afs_int32 tlength = offset + len;
355             afs_AdjustSize(tdc, tlength);
356             if (tdc->validPos < filePos + len)
357                 tdc->validPos = filePos + len;
358         }
359         totalLength -= len;
360         transferLength += len;
361         filePos += len;
362 #if defined(AFS_SGI_ENV)
363         /* afs_xwrite handles setting m.Length */
364         osi_Assert(filePos <= avc->f.m.Length);
365 #else
366         if (filePos > avc->f.m.Length) {
367             if (AFS_IS_DISCON_RW)
368                 afs_PopulateDCache(avc, filePos, &treq);
369             afs_Trace4(afs_iclSetp, CM_TRACE_SETLENGTH, ICL_TYPE_STRING,
370                        __FILE__, ICL_TYPE_LONG, __LINE__, ICL_TYPE_OFFSET,
371                        ICL_HANDLE_OFFSET(avc->f.m.Length), ICL_TYPE_OFFSET,
372                        ICL_HANDLE_OFFSET(filePos));
373             avc->f.m.Length = filePos;
374 #if defined(AFS_FBSD_ENV) || defined(AFS_DFBSD_ENV)
375             vnode_pager_setsize(vp, filePos);
376 #endif
377         }
378 #endif
379         ReleaseWriteLock(&tdc->lock);
380         afs_PutDCache(tdc);
381 #if !defined(AFS_VM_RDWR_ENV)
382         /*
383          * If write is implemented via VM, afs_DoPartialWrite() is called from
384          * the high-level write op.
385          */
386         if (!noLock) {
387             code = afs_DoPartialWrite(avc, &treq);
388             if (code) {
389                 error = code;
390                 break;
391             }
392         }
393 #endif
394     }
395 #if !defined(AFS_VM_RDWR_ENV) || defined(AFS_FAKEOPEN_ENV)
396     afs_FakeClose(avc, acred);
397 #endif
398     error = afs_CheckCode(error, &treq, 7);
399     /* This set is here so we get the CheckCode. */
400     if (error && !avc->vc_error)
401         avc->vc_error = error;
402     if (!noLock)
403         ReleaseWriteLock(&avc->lock);
404     if (tuiop)
405         afsio_free(tuiop);
406
407 #ifndef AFS_VM_RDWR_ENV
408     /*
409      * If write is implemented via VM, afs_fsync() is called from the high-level
410      * write op.
411      */
412 #if defined(AFS_DARWIN_ENV) || defined(AFS_XBSD_ENV)
413     if (noLock && (aio & IO_SYNC)) {
414 #else
415 #ifdef  AFS_HPUX_ENV
416     /* On hpux on synchronous writes syncio will be set to IO_SYNC. If
417      * we're doing them because the file was opened with O_SYNCIO specified,
418      * we have to look in the u area. No single mechanism here!!
419      */
420     if (noLock && ((aio & IO_SYNC) | (auio->uio_fpflags & FSYNCIO))) {
421 #else
422     if (noLock && (aio & FSYNC)) {
423 #endif
424 #endif
425         if (!AFS_NFSXLATORREQ(acred))
426             afs_fsync(avc, acred);
427     }
428 #endif
429     return error;
430 }
431
432 /* do partial write if we're low on unmodified chunks */
433 int
434 afs_DoPartialWrite(struct vcache *avc, struct vrequest *areq)
435 {
436     afs_int32 code;
437
438     if (afs_stats_cmperf.cacheCurrDirtyChunks <=
439         afs_stats_cmperf.cacheMaxDirtyChunks
440         || AFS_IS_DISCONNECTED)
441         return 0;               /* nothing to do */
442     /* otherwise, call afs_StoreDCache (later try to do this async, if possible) */
443     afs_Trace2(afs_iclSetp, CM_TRACE_PARTIALWRITE, ICL_TYPE_POINTER, avc,
444                ICL_TYPE_OFFSET, ICL_HANDLE_OFFSET(avc->f.m.Length));
445
446 #if     defined(AFS_SUN5_ENV)
447     code = afs_StoreAllSegments(avc, areq, AFS_ASYNC | AFS_VMSYNC_INVAL);
448 #else
449     code = afs_StoreAllSegments(avc, areq, AFS_ASYNC);
450 #endif
451     return code;
452 }
453
454 /* handle any closing cleanup stuff */
455 int
456 #if defined(AFS_SGI65_ENV)
457 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, lastclose_t lastclose,
458           afs_ucred_t *acred)
459 #elif defined(AFS_SGI64_ENV)
460 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, lastclose_t lastclose,
461           off_t offset, afs_ucred_t *acred, struct flid *flp)
462 #elif defined(AFS_SGI_ENV)
463 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, lastclose_t lastclose
464           off_t offset, afs_ucred_t *acred)
465 #elif defined(AFS_SUN5_ENV)
466 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, int count, offset_t offset, 
467          afs_ucred_t *acred)
468 #else
469 afs_close(OSI_VC_DECL(avc), afs_int32 aflags, afs_ucred_t *acred)
470 #endif
471 {
472     afs_int32 code;
473     afs_int32 code_checkcode = 0;
474     struct brequest *tb;
475     struct vrequest treq;
476 #ifdef AFS_SGI65_ENV
477     struct flid flid;
478 #endif
479     struct afs_fakestat_state fakestat;
480     OSI_VC_CONVERT(avc);
481
482     AFS_STATCNT(afs_close);
483     afs_Trace2(afs_iclSetp, CM_TRACE_CLOSE, ICL_TYPE_POINTER, avc,
484                ICL_TYPE_INT32, aflags);
485     code = afs_InitReq(&treq, acred);
486     if (code)
487         return code;
488     afs_InitFakeStat(&fakestat);
489     code = afs_EvalFakeStat(&avc, &fakestat, &treq);
490     if (code) {
491         afs_PutFakeStat(&fakestat);
492         return code;
493     }
494     AFS_DISCON_LOCK();
495 #ifdef  AFS_SUN5_ENV
496     if (avc->flockCount) {
497         HandleFlock(avc, LOCK_UN, &treq, 0, 1 /*onlymine */ );
498     }
499 #endif
500 #if defined(AFS_SGI_ENV)
501     if (!lastclose) {
502         afs_PutFakeStat(&fakestat);
503         AFS_DISCON_UNLOCK();
504         return 0;
505     }
506     /* unlock any locks for pid - could be wrong for child .. */
507     AFS_RWLOCK((vnode_t *) avc, VRWLOCK_WRITE);
508 # ifdef AFS_SGI65_ENV
509     get_current_flid(&flid);
510     cleanlocks((vnode_t *) avc, flid.fl_pid, flid.fl_sysid);
511     HandleFlock(avc, LOCK_UN, &treq, flid.fl_pid, 1 /*onlymine */ );
512 # else
513 #  ifdef AFS_SGI64_ENV
514     cleanlocks((vnode_t *) avc, flp);
515 #  else /* AFS_SGI64_ENV */
516     cleanlocks((vnode_t *) avc, u.u_procp->p_epid, u.u_procp->p_sysid);
517 #  endif /* AFS_SGI64_ENV */
518     HandleFlock(avc, LOCK_UN, &treq, OSI_GET_CURRENT_PID(), 1 /*onlymine */ );
519 # endif /* AFS_SGI65_ENV */
520     /* afs_chkpgoob will drop and re-acquire the global lock. */
521     afs_chkpgoob(&avc->v, btoc(avc->f.m.Length));
522 #elif defined(AFS_SUN5_ENV)
523     if (count > 1) {
524         /* The vfs layer may call this repeatedly with higher "count"; only
525          * on the last close (i.e. count = 1) we should actually proceed
526          * with the close. */
527         afs_PutFakeStat(&fakestat);
528         AFS_DISCON_UNLOCK();
529         return 0;
530     }
531 #else
532     if (avc->flockCount) {      /* Release Lock */
533         HandleFlock(avc, LOCK_UN, &treq, 0, 1 /*onlymine */ );
534     }
535 #endif
536     if (aflags & (FWRITE | FTRUNC)) {
537         if (afs_BBusy() || (AFS_NFSXLATORREQ(acred)) || AFS_IS_DISCONNECTED) {
538             /* do it yourself if daemons are all busy */
539             ObtainWriteLock(&avc->lock, 124);
540             code = afs_StoreOnLastReference(avc, &treq);
541             ReleaseWriteLock(&avc->lock);
542 #if defined(AFS_SGI_ENV)
543             AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
544 #endif
545         } else {
546 #if defined(AFS_SGI_ENV)
547             AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
548 #endif
549             /* at least one daemon is idle, so ask it to do the store.
550              * Also, note that  we don't lock it any more... */
551             tb = afs_BQueue(BOP_STORE, avc, 0, 1, acred,
552                             (afs_size_t) afs_cr_uid(acred), (afs_size_t) 0,
553                             (void *)0, (void *)0, (void *)0);
554             /* sleep waiting for the store to start, then retrieve error code */
555             while ((tb->flags & BUVALID) == 0) {
556                 tb->flags |= BUWAIT;
557                 afs_osi_Sleep(tb);
558             }
559             code = tb->code_raw;
560             code_checkcode = tb->code_checkcode;
561             afs_BRelease(tb);
562         }
563
564         /* VNOVNODE is "acceptable" error code from close, since
565          * may happen when deleting a file on another machine while
566          * it is open here. We do the same for ENOENT since in afs_CheckCode we map VNOVNODE -> ENOENT */
567         if (code == VNOVNODE || code == ENOENT)
568             code = 0;
569
570         /* Ensure last closer gets the error. If another thread caused
571          * DoPartialWrite and this thread does not actually store the data,
572          * it may not see the quota error.
573          */
574         ObtainWriteLock(&avc->lock, 406);
575         if (avc->vc_error) {
576 #ifdef AFS_AIX32_ENV
577             osi_ReleaseVM(avc, acred);
578 #endif
579             /* printf("avc->vc_error=%d\n", avc->vc_error); */
580             code = avc->vc_error;
581             code_checkcode = 0;
582             avc->vc_error = 0;
583         }
584         ReleaseWriteLock(&avc->lock);
585
586         /* some codes merit specific complaint */
587         if (code < 0) {
588             afs_warnuser("afs: failed to store file (network problems)\n");
589         }
590 #ifdef  AFS_SUN5_ENV
591         else if (code == ENOSPC) {
592             afs_warnuser
593                 ("afs: failed to store file (over quota or partition full)\n");
594         }
595 #else
596         else if (code == ENOSPC) {
597             afs_warnuser("afs: failed to store file (partition full)\n");
598         } else if (code == EDQUOT) {
599             afs_warnuser("afs: failed to store file (over quota)\n");
600         }
601 #endif
602         else if (code != 0)
603             afs_warnuser("afs: failed to store file (%d)\n", code);
604
605         /* finally, we flush any text pages lying around here */
606         hzero(avc->flushDV);
607         osi_FlushText(avc);
608     } else {
609 #if defined(AFS_SGI_ENV)
610         AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
611         osi_Assert(avc->opens > 0);
612 #endif
613         /* file open for read */
614         ObtainWriteLock(&avc->lock, 411);
615         if (avc->vc_error) {
616 #ifdef AFS_AIX32_ENV
617             osi_ReleaseVM(avc, acred);
618 #endif
619             code = avc->vc_error;
620             avc->vc_error = 0;
621         }
622 #if defined(AFS_FBSD80_ENV)
623         /* XXX */
624         if (!avc->opens) {
625             afs_int32 opens, is_free, is_gone, is_doomed, iflag;
626             struct vnode *vp = AFSTOV(avc);
627             VI_LOCK(vp);
628             is_doomed =  vp->v_iflag & VI_DOOMED;
629             is_free = vp->v_iflag & VI_FREE;
630             is_gone = vp->v_iflag & VI_DOINGINACT;
631             iflag = vp->v_iflag;
632             VI_UNLOCK(vp);
633             opens = avc->opens;
634             afs_warn("afs_close avc %p vp %p opens %d free %d doinginact %d doomed %d iflag %d\n",
635                      avc, vp, opens, is_free, is_gone, is_doomed, iflag);
636         }
637 #endif
638         avc->opens--;
639         ReleaseWriteLock(&avc->lock);
640     }
641     AFS_DISCON_UNLOCK();
642     afs_PutFakeStat(&fakestat);
643
644     if (code_checkcode) {
645         code = code_checkcode;
646     } else {
647         code = afs_CheckCode(code, &treq, 5);
648     }
649     return code;
650 }
651
652
653 int
654 #if defined(AFS_SGI_ENV) || defined(AFS_SUN5_ENV)
655 afs_fsync(OSI_VC_DECL(avc), int flag, afs_ucred_t *acred
656 # ifdef AFS_SGI65_ENV
657           , off_t start, off_t stop
658 # endif /* AFS_SGI65_ENV */
659     )
660 #else /* !SUN5 && !SGI */
661 afs_fsync(OSI_VC_DECL(avc), afs_ucred_t *acred)
662 #endif 
663 {
664     afs_int32 code;
665     struct vrequest treq;
666     OSI_VC_CONVERT(avc);
667
668     if (avc->vc_error)
669         return avc->vc_error;
670
671 #if defined(AFS_SUN5_ENV)
672     /* back out if called from NFS server */
673     if (curthread->t_flag & T_DONTPEND)
674         return 0;
675 #endif
676
677     AFS_STATCNT(afs_fsync);
678     afs_Trace1(afs_iclSetp, CM_TRACE_FSYNC, ICL_TYPE_POINTER, avc);
679     if ((code = afs_InitReq(&treq, acred)))
680         return code;
681     AFS_DISCON_LOCK();
682 #if defined(AFS_SGI_ENV)
683     AFS_RWLOCK((vnode_t *) avc, VRWLOCK_WRITE);
684     if (flag & FSYNC_INVAL)
685         osi_VM_FSyncInval(avc);
686 #endif /* AFS_SGI_ENV */
687
688     ObtainSharedLock(&avc->lock, 18);
689     code = 0;
690     if (avc->execsOrWriters > 0) {
691         if (!AFS_IS_DISCONNECTED && !AFS_IS_DISCON_RW) {
692             /* Your average flush. */
693             
694             /* put the file back */
695             UpgradeSToWLock(&avc->lock, 41);
696             code = afs_StoreAllSegments(avc, &treq, AFS_SYNC);
697             ConvertWToSLock(&avc->lock);
698         } else {
699             UpgradeSToWLock(&avc->lock, 711);
700             afs_DisconAddDirty(avc, VDisconWriteFlush, 1);
701             ConvertWToSLock(&avc->lock);
702         }               /* if not disconnected */
703     }                   /* if (avc->execsOrWriters > 0) */
704
705 #if defined(AFS_SGI_ENV)
706     AFS_RWUNLOCK((vnode_t *) avc, VRWLOCK_WRITE);
707     if (code == VNOVNODE) {
708         /* syncing an unlinked file! - non-informative to pass an errno
709          * 102 (== VNOVNODE) to user
710          */
711         code = ENOENT;
712     }
713 #endif
714     AFS_DISCON_UNLOCK();
715     code = afs_CheckCode(code, &treq, 33);
716     ReleaseSharedLock(&avc->lock);
717     return code;
718 }