ee252f1281e26f60b92333d886e34fab39340984
[openafs.git] / src / afs / afs_fetchstore.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  *
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13 #include "afs/sysincludes.h"    /* Standard vendor system headers */
14 #ifndef AFS_LINUX22_ENV
15 #include "rpc/types.h"
16 #endif
17 #ifdef  AFS_ALPHA_ENV
18 #undef kmem_alloc
19 #undef kmem_free
20 #undef mem_alloc
21 #undef mem_free
22 #undef register
23 #endif /* AFS_ALPHA_ENV */
24 #include "afsincludes.h"        /* Afs-based standard headers */
25 #include "afs/afs_stats.h"      /* statistics */
26 #include "afs_prototypes.h"
27
28 extern int cacheDiskType;
29
30
31 #ifndef AFS_NOSTATS
32 void
33 FillStoreStats(int code, int idx, osi_timeval_t *xferStartTime,
34                   afs_size_t bytesToXfer, afs_size_t bytesXferred)
35 {
36     struct afs_stats_xferData *xferP;
37     osi_timeval_t xferStopTime;
38     osi_timeval_t elapsedTime;
39
40     xferP = &(afs_stats_cmfullperf.rpc.fsXferTimes[idx]);
41     osi_GetuTime(&xferStopTime);
42     (xferP->numXfers)++;
43     if (!code) {
44         (xferP->numSuccesses)++;
45         afs_stats_XferSumBytes[idx] += bytesXferred;
46         (xferP->sumBytes) += (afs_stats_XferSumBytes[idx] >> 10);
47         afs_stats_XferSumBytes[idx] &= 0x3FF;
48         if (bytesXferred < xferP->minBytes)
49             xferP->minBytes = bytesXferred;
50         if (bytesXferred > xferP->maxBytes)
51             xferP->maxBytes = bytesXferred;
52
53         /*
54          * Tally the size of the object.  Note: we tally the actual size,
55          * NOT the number of bytes that made it out over the wire.
56          */
57         if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET0) (xferP->count[0])++;
58         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET1) (xferP->count[1])++;
59         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET2) (xferP->count[2])++;
60         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET3) (xferP->count[3])++;
61         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET4) (xferP->count[4])++;
62         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET5) (xferP->count[5])++;
63         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET6) (xferP->count[6])++;
64         else if (bytesToXfer <= AFS_STATS_MAXBYTES_BUCKET7) (xferP->count[7])++;
65         else
66             (xferP->count[8])++;
67
68         afs_stats_GetDiff(elapsedTime, (*xferStartTime), xferStopTime);
69         afs_stats_AddTo((xferP->sumTime), elapsedTime);
70         afs_stats_SquareAddTo((xferP->sqrTime), elapsedTime);
71         if (afs_stats_TimeLessThan(elapsedTime, (xferP->minTime))) {
72             afs_stats_TimeAssign((xferP->minTime), elapsedTime);
73         }
74         if (afs_stats_TimeGreaterThan(elapsedTime, (xferP->maxTime))) {
75             afs_stats_TimeAssign((xferP->maxTime), elapsedTime);
76         }
77     }
78 }
79 #endif /* AFS_NOSTATS */
80
81 /* rock and operations for RX_FILESERVER */
82
83
84
85 afs_int32
86 rxfs_storeUfsPrepare(void *r, afs_uint32 size, afs_uint32 *tlen)
87 {
88     *tlen = (size > AFS_LRALLOCSIZ ?  AFS_LRALLOCSIZ : size);
89     return 0;
90 }
91
92 afs_int32
93 rxfs_storeMemPrepare(void *r, afs_uint32 size, afs_uint32 *tlen)
94 {
95     afs_int32 code;
96     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *) r;
97
98     *tlen = (size > AFS_LRALLOCSIZ ?  AFS_LRALLOCSIZ : size);
99     RX_AFS_GUNLOCK();
100     code = rx_WritevAlloc(v->call, v->tiov, &v->tnio, RX_MAXIOVECS, *tlen);
101     RX_AFS_GLOCK();
102     if (code <= 0) {
103         code = rx_Error(v->call);
104         if (!code)
105             code = -33;
106     }
107     else {
108         *tlen = code;
109         code = 0;
110     }
111     return code;
112 }
113
114 afs_int32
115 rxfs_storeUfsRead(void *r, struct osi_file *tfile, afs_uint32 offset,
116                   afs_uint32 tlen, afs_uint32 *bytesread)
117 {
118     afs_int32 code;
119     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)r;
120
121     *bytesread = 0;
122     code = afs_osi_Read(tfile, -1, v->tbuffer, tlen);
123     if (code < 0)
124         return EIO;
125     *bytesread = code;
126     if (code == tlen)
127         return 0;
128 #if defined(KERNEL_HAVE_UERROR)
129     if (getuerror())
130         return EIO;
131 #endif
132     return 0;
133 }
134
135 afs_int32
136 rxfs_storeMemRead(void *r, struct osi_file *tfile, afs_uint32 offset,
137                   afs_uint32 tlen, afs_uint32 *bytesread)
138 {
139     afs_int32 code;
140     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)r;
141     struct memCacheEntry *mceP = (struct memCacheEntry *)tfile;
142
143     *bytesread = 0;
144     code = afs_MemReadvBlk(mceP, offset, v->tiov, v->tnio, tlen);
145     if (code != tlen)
146         return -33;
147     *bytesread = code;
148     return 0;
149 }
150
151 afs_int32
152 rxfs_storeMemWrite(void *r, afs_uint32 l, afs_uint32 *byteswritten)
153 {
154     afs_int32 code;
155     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)r;
156
157     RX_AFS_GUNLOCK();
158     code = rx_Writev(v->call, v->tiov, v->tnio, l);
159     RX_AFS_GLOCK();
160     if (code != l) {
161         code = rx_Error(v->call);
162         return (code ? code : -33);
163     }
164     *byteswritten = code;
165     return 0;
166 }
167
168 afs_int32
169 rxfs_storeUfsWrite(void *r, afs_uint32 l, afs_uint32 *byteswritten)
170 {
171     afs_int32 code;
172     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)r;
173
174     RX_AFS_GUNLOCK();
175     code = rx_Write(v->call, v->tbuffer, l);
176         /* writing 0 bytes will
177          * push a short packet.  Is that really what we want, just because the
178          * data didn't come back from the disk yet?  Let's try it and see. */
179     RX_AFS_GLOCK();
180     if (code != l) {
181         code = rx_Error(v->call);
182         return (code ? code : -33);
183     }
184     *byteswritten = code;
185     return 0;
186 }
187
188 afs_int32
189 rxfs_storePadd(void *rock, afs_uint32 size)
190 {
191     afs_int32 code = 0;
192     afs_uint32 tlen;
193     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)rock;
194
195     if (!v->tbuffer)
196         v->tbuffer = osi_AllocLargeSpace(AFS_LRALLOCSIZ);
197     memset(v->tbuffer, 0, AFS_LRALLOCSIZ);
198
199     while (size) {
200         tlen = (size > AFS_LRALLOCSIZ ? AFS_LRALLOCSIZ : size);
201         RX_AFS_GUNLOCK();
202         code = rx_Write(v->call, v->tbuffer, tlen);
203         RX_AFS_GLOCK();
204
205         if (code != tlen)
206             return -33; /* XXX */
207         size -= tlen;
208     }
209     return 0;
210 }
211
212 afs_int32
213 rxfs_storeStatus(void *rock)
214 {
215     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)rock;
216
217     if (rx_GetRemoteStatus(v->call) & 1)
218         return 0;
219     return 1;
220 }
221
222 afs_int32
223 rxfs_storeClose(void *r, struct AFSFetchStatus *OutStatus, int *doProcessFS)
224 {
225     afs_int32 code;
226     struct AFSVolSync tsync;
227     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)r;
228
229     if (!v->call)
230         return -1;
231     RX_AFS_GUNLOCK();
232 #ifdef AFS_64BIT_CLIENT
233     if (!v->hasNo64bit)
234         code = EndRXAFS_StoreData64(v->call, OutStatus, &tsync);
235     else
236 #endif
237         code = EndRXAFS_StoreData(v->call, OutStatus, &tsync);
238     RX_AFS_GLOCK();
239     if (!code)
240         *doProcessFS = 1;       /* Flag to run afs_ProcessFS() later on */
241
242     return code;
243 }
244
245 afs_int32
246 rxfs_storeDestroy(void **r, afs_int32 error)
247 {
248     afs_int32 code = error;
249     struct rxfs_storeVariables *v = (struct rxfs_storeVariables *)*r;
250
251     *r = NULL;
252     if (v->call) {
253         RX_AFS_GUNLOCK();
254         code = rx_EndCall(v->call, error);
255         RX_AFS_GLOCK();
256         if (!code && error)
257             code = error;
258     }
259     if (v->tbuffer)
260         osi_FreeLargeSpace(v->tbuffer);
261     if (v->tiov)
262         osi_FreeSmallSpace(v->tiov);
263     osi_FreeSmallSpace(v);
264     return code;
265 }
266
267 static
268 struct storeOps rxfs_storeUfsOps = {
269 #if (defined(AFS_SGI_ENV) && !defined(__c99))
270     rxfs_storeUfsPrepare,
271     rxfs_storeUfsRead,
272     rxfs_storeUfsWrite,
273     rxfs_storeStatus,
274     rxfs_storePadd,
275     rxfs_storeClose,
276     rxfs_storeDestroy
277 #else
278     .prepare =  rxfs_storeUfsPrepare,
279     .read =     rxfs_storeUfsRead,
280     .write =    rxfs_storeUfsWrite,
281     .status =   rxfs_storeStatus,
282     .padd =     rxfs_storePadd,
283     .close =    rxfs_storeClose,
284     .destroy =  rxfs_storeDestroy,
285 #ifdef AFS_LINUX26_ENV
286     .storeproc = afs_linux_storeproc
287 #endif
288 #endif
289 };
290
291 static
292 struct storeOps rxfs_storeMemOps = {
293 #if (defined(AFS_SGI_ENV) && !defined(__c99))
294     rxfs_storeMemPrepare,
295     rxfs_storeMemRead,
296     rxfs_storeMemWrite,
297     rxfs_storeStatus,
298     rxfs_storePadd,
299     rxfs_storeClose,
300     rxfs_storeDestroy
301 #else
302     .prepare =  rxfs_storeMemPrepare,
303     .read =     rxfs_storeMemRead,
304     .write =    rxfs_storeMemWrite,
305     .status =   rxfs_storeStatus,
306     .padd =     rxfs_storePadd,
307     .close =    rxfs_storeClose,
308     .destroy =  rxfs_storeDestroy
309 #endif
310 };
311
312 afs_int32
313 rxfs_storeInit(struct vcache *avc, struct afs_conn *tc, afs_size_t base,
314                 afs_size_t bytes, afs_size_t length,
315                 int sync, struct storeOps **ops, void **rock)
316 {
317     afs_int32 code;
318     struct rxfs_storeVariables *v;
319
320     if ( !tc )
321         return -1;
322
323     v = (struct rxfs_storeVariables *) osi_AllocSmallSpace(sizeof(struct rxfs_storeVariables));
324     if (!v)
325         osi_Panic("rxfs_storeInit: osi_AllocSmallSpace returned NULL\n");
326     memset(v, 0, sizeof(struct rxfs_storeVariables));
327
328     v->InStatus.ClientModTime = avc->f.m.Date;
329     v->InStatus.Mask = AFS_SETMODTIME;
330     v->vcache = avc;
331     if (sync & AFS_SYNC)
332         v->InStatus.Mask |= AFS_FSYNC;
333     RX_AFS_GUNLOCK();
334     v->call = rx_NewCall(tc->id);
335     if (v->call) {
336 #ifdef AFS_64BIT_CLIENT
337         if (!afs_serverHasNo64Bit(tc))
338             code = StartRXAFS_StoreData64(
339                                 v->call, (struct AFSFid*)&avc->f.fid.Fid,
340                                 &v->InStatus, base, bytes, length);
341         else
342             if (length > 0xFFFFFFFF)
343                 code = EFBIG;
344             else {
345                 afs_int32 t1 = base, t2 = bytes, t3 = length;
346                 code = StartRXAFS_StoreData(v->call,
347                                         (struct AFSFid *) &avc->f.fid.Fid,
348                                          &v->InStatus, t1, t2, t3);
349             }
350 #else /* AFS_64BIT_CLIENT */
351         code = StartRXAFS_StoreData(v->call, (struct AFSFid *)&avc->f.fid.Fid,
352                                     &v->InStatus, base, bytes, length);
353 #endif /* AFS_64BIT_CLIENT */
354     } else
355         code = -1;
356     RX_AFS_GLOCK();
357     if (code) {
358         osi_FreeSmallSpace(v);
359         return code;
360     }
361     if (cacheDiskType == AFS_FCACHE_TYPE_UFS) {
362         v->tbuffer = osi_AllocLargeSpace(AFS_LRALLOCSIZ);
363         if (!v->tbuffer)
364             osi_Panic
365             ("rxfs_storeInit: osi_AllocLargeSpace for iovecs returned NULL\n");
366         *ops = (struct storeOps *) &rxfs_storeUfsOps;
367     } else {
368         v->tiov = osi_AllocSmallSpace(sizeof(struct iovec) * RX_MAXIOVECS);
369         if (!v->tiov)
370             osi_Panic
371             ("rxfs_storeInit: osi_AllocSmallSpace for iovecs returned NULL\n");
372         *ops = (struct storeOps *) &rxfs_storeMemOps;
373 #ifdef notdef
374         /* do this at a higher level now -- it's a parameter */
375         /* for now, only do 'continue from close' code if file fits in one
376          * chunk.  Could clearly do better: if only one modified chunk
377          * then can still do this.  can do this on *last* modified chunk */
378         length = avc->f.m.Length - 1; /* byte position of last byte we'll store */
379         if (shouldWake) {
380             if (AFS_CHUNK(length) != 0)
381                 *shouldWake = 0;
382             else
383                 *shouldWake = 1;
384         }
385 #endif /* notdef */
386     }
387
388     *rock = (void *)v;
389     return 0;
390 }
391
392 afs_int32
393 afs_GenericStoreProc(struct storeOps *ops, void *rock,
394                      struct dcache *tdc, int *shouldwake,
395                      afs_size_t *bytesXferred)
396 {
397     struct rxfs_storeVariables *svar = rock;
398     afs_uint32 tlen, bytesread, byteswritten;
399     afs_int32 code;
400     int offset = 0;
401     afs_size_t size;
402     struct osi_file *tfile;
403
404     size = tdc->f.chunkBytes;
405
406     tfile = afs_CFileOpen(&tdc->f.inode);
407
408     while ( size > 0 ) {
409         code = (*ops->prepare)(rock, size, &tlen);
410         if ( code )
411             break;
412
413         code = (*ops->read)(rock, tfile, offset, tlen, &bytesread);
414         if (code)
415             break;
416
417         tlen = bytesread;
418         code = (*ops->write)(rock, tlen, &byteswritten);
419         if (code)
420             break;
421 #ifndef AFS_NOSTATS
422         *bytesXferred += byteswritten;
423 #endif /* AFS_NOSTATS */
424
425         offset += tlen;
426         size -= tlen;
427         /*
428          * if file has been locked on server, can allow
429          * store to continue
430          */
431         if (shouldwake && *shouldwake && ((*ops->status)(rock) == 0)) {
432             *shouldwake = 0;    /* only do this once */
433             afs_wakeup(svar->vcache);
434         }
435     }
436     afs_CFileClose(tfile);
437
438     return code;
439 }
440
441 unsigned int storeallmissing = 0;
442 /*!
443  *      Called for each chunk upon store.
444  *
445  * \param avc Ptr to the vcache entry of the file being stored.
446  * \param dclist pointer to the list of dcaches
447  * \param bytes total number of bytes for the current operation
448  * \param anewDV Ptr to the dataversion after store
449  * \param doProcessFS pointer to the "do process FetchStatus" flag
450  * \param OutStatus pointer to the FetchStatus as returned by the fileserver
451  * \param nchunks number of dcaches to consider
452  * \param nomore copy of the "no more data" flag
453  * \param ops pointer to the block of storeOps to be used for this operation
454  * \param rock pointer to the opaque protocol-specific data of this operation
455  */
456 afs_int32
457 afs_CacheStoreDCaches(struct vcache *avc, struct dcache **dclist,
458                         afs_size_t bytes,
459                         afs_hyper_t *anewDV,
460                         int *doProcessFS,
461                         struct AFSFetchStatus *OutStatus,
462                         afs_uint32 nchunks,
463                         int nomore,
464                         struct storeOps *ops, void *rock)
465 {
466     int *shouldwake = NULL;
467     unsigned int i;
468     afs_int32 code = 0;
469     afs_size_t bytesXferred;
470
471 #ifndef AFS_NOSTATS
472     osi_timeval_t xferStartTime;        /*FS xfer start time */
473     afs_size_t bytesToXfer = 10000;     /* # bytes to xfer */
474 #endif /* AFS_NOSTATS */
475     XSTATS_DECLS;
476
477     for (i = 0; i < nchunks && !code; i++) {
478         int stored = 0;
479         struct dcache *tdc = dclist[i];
480         afs_int32 size = tdc->f.chunkBytes;
481         if (!tdc) {
482             afs_warn("afs: missing dcache!\n");
483             storeallmissing++;
484             continue;   /* panic? */
485         }
486         afs_Trace4(afs_iclSetp, CM_TRACE_STOREALL2, ICL_TYPE_POINTER, avc,
487                     ICL_TYPE_INT32, tdc->f.chunk, ICL_TYPE_INT32, tdc->index,
488                     ICL_TYPE_INT32, afs_inode2trace(&tdc->f.inode));
489         shouldwake = 0;
490         if (nomore) {
491             if (avc->asynchrony == -1) {
492                 if (afs_defaultAsynchrony > (bytes - stored))
493                     shouldwake = &nomore;
494             }
495             else if ((afs_uint32) avc->asynchrony >= (bytes - stored))
496                 shouldwake = &nomore;
497         }
498
499         afs_Trace4(afs_iclSetp, CM_TRACE_STOREPROC, ICL_TYPE_POINTER, avc,
500                     ICL_TYPE_FID, &(avc->f.fid), ICL_TYPE_OFFSET,
501                     ICL_HANDLE_OFFSET(avc->f.m.Length), ICL_TYPE_INT32, size);
502
503         AFS_STATCNT(CacheStoreProc);
504
505         XSTATS_START_TIME(AFS_STATS_FS_RPCIDX_STOREDATA);
506         avc->f.truncPos = AFS_NOTRUNC;
507 #ifndef AFS_NOSTATS
508         /*
509          * In this case, size is *always* the amount of data we'll be trying
510          * to ship here.
511          */
512         bytesToXfer = size;
513
514         osi_GetuTime(&xferStartTime);
515 #endif /* AFS_NOSTATS */
516         bytesXferred = 0;
517
518         if (ops->storeproc)
519             code = (*ops->storeproc)(ops, rock, tdc, shouldwake,
520                                      &bytesXferred);
521         else
522             code = afs_GenericStoreProc(ops, rock, tdc, shouldwake,
523                                         &bytesXferred);
524
525         afs_Trace4(afs_iclSetp, CM_TRACE_STOREPROC, ICL_TYPE_POINTER, avc,
526                     ICL_TYPE_FID, &(avc->f.fid), ICL_TYPE_OFFSET,
527                     ICL_HANDLE_OFFSET(avc->f.m.Length), ICL_TYPE_INT32, size);
528
529 #ifndef AFS_NOSTATS
530         FillStoreStats(code, AFS_STATS_FS_XFERIDX_STOREDATA,
531                     &xferStartTime, bytesToXfer, bytesXferred);
532 #endif /* AFS_NOSTATS */
533
534         if ((tdc->f.chunkBytes < afs_OtherCSize)
535                 && (i < (nchunks - 1)) && code == 0) {
536             code = (*ops->padd)(rock, afs_OtherCSize - tdc->f.chunkBytes);
537         }
538         stored += tdc->f.chunkBytes;
539         /* ideally, I'd like to unlock the dcache and turn
540          * off the writing bit here, but that would
541          * require being able to retry StoreAllSegments in
542          * the event of a failure. It only really matters
543          * if user can't read from a 'locked' dcache or
544          * one which has the writing bit turned on. */
545     }
546
547     if (!code) {
548         code = (*ops->close)(rock, OutStatus, doProcessFS);
549         if (*doProcessFS) {
550             hadd32(*anewDV, 1);
551         }
552         XSTATS_END_TIME;
553     }
554     if (ops)
555         code = (*ops->destroy)(&rock, code);
556     return code;
557 }
558
559 #define lmin(a,b) (((a) < (b)) ? (a) : (b))
560 /*!
561  *      Called upon store.
562  *
563  * \param dclist pointer to the list of dcaches
564  * \param avc Ptr to the vcache entry.
565  * \param areq Ptr to the request structure
566  * \param sync sync flag
567  * \param minj the chunk offset for this call
568  * \param high index of last dcache to store
569  * \param moredata the moredata flag
570  * \param anewDV Ptr to the dataversion after store
571  * \param amaxStoredLength Ptr to the amount of that is actually stored
572  *
573  * \note Environment: Nothing interesting.
574  */
575 int
576 afs_CacheStoreVCache(struct dcache **dcList, struct vcache *avc,
577                         struct vrequest *areq, int sync,
578                         unsigned int minj, unsigned int high,
579                         unsigned int moredata,
580                         afs_hyper_t *anewDV, afs_size_t *amaxStoredLength)
581 {
582     afs_int32 code = 0;
583     struct storeOps *ops;
584     void * rock = NULL;
585     unsigned int i, j;
586
587     struct AFSFetchStatus OutStatus;
588     int doProcessFS = 0;
589     afs_size_t base, bytes, length;
590     int nomore;
591     unsigned int first = 0;
592     struct afs_conn *tc;
593
594     for (bytes = 0, j = 0; !code && j <= high; j++) {
595         if (dcList[j]) {
596             ObtainSharedLock(&(dcList[j]->lock), 629);
597             if (!bytes)
598                 first = j;
599             bytes += dcList[j]->f.chunkBytes;
600             if ((dcList[j]->f.chunkBytes < afs_OtherCSize)
601                         && (dcList[j]->f.chunk - minj < high)
602                         && dcList[j + 1]) {
603                 int sbytes = afs_OtherCSize - dcList[j]->f.chunkBytes;
604                 bytes += sbytes;
605             }
606         }
607         if (bytes && (j == high || !dcList[j + 1])) {
608             afs_uint32 nchunks;
609             struct dcache **dclist = &dcList[first];
610             /* base = AFS_CHUNKTOBASE(dcList[first]->f.chunk); */
611             base = AFS_CHUNKTOBASE(first + minj);
612             /*
613              *
614              * take a list of dcache structs and send them all off to the server
615              * the list must be in order, and the chunks contiguous.
616              * Note - there is no locking done by this code currently.  For
617              * safety's sake, xdcache could be locked over the entire call.
618              * However, that pretty well ties up all the threads.  Meantime, all
619              * the chunks _MUST_ have their refcounts bumped.
620              * The writes done before a store back will clear setuid-ness
621              * in cache file.
622              * We can permit CacheStoreProc to wake up the user process IFF we
623              * are doing the last RPC for this close, ie, storing back the last
624              * set of contiguous chunks of a file.
625              */
626
627             nchunks = 1 + j - first;
628             nomore = !(moredata || (j != high));
629             length = lmin(avc->f.m.Length, avc->f.truncPos);
630             afs_Trace4(afs_iclSetp, CM_TRACE_STOREDATA64,
631                        ICL_TYPE_FID, &avc->f.fid.Fid, ICL_TYPE_OFFSET,
632                        ICL_HANDLE_OFFSET(base), ICL_TYPE_OFFSET,
633                        ICL_HANDLE_OFFSET(bytes), ICL_TYPE_OFFSET,
634                        ICL_HANDLE_OFFSET(length));
635
636             do {
637                 tc = afs_Conn(&avc->f.fid, areq, 0);
638
639 #ifdef AFS_64BIT_CLIENT
640               restart:
641 #endif
642                 code = rxfs_storeInit(avc, tc, base, bytes, length,
643                                       sync, &ops, &rock);
644                 if ( !code ) {
645                     code = afs_CacheStoreDCaches(avc, dclist, bytes, anewDV,
646                                                  &doProcessFS, &OutStatus,
647                                                  nchunks, nomore, ops, rock);
648                 }
649
650 #ifdef AFS_64BIT_CLIENT
651                 if (code == RXGEN_OPCODE && !afs_serverHasNo64Bit(tc)) {
652                     afs_serverSetNo64Bit(tc);
653                     goto restart;
654                 }
655 #endif /* AFS_64BIT_CLIENT */
656             } while (afs_Analyze
657                      (tc, code, &avc->f.fid, areq,
658                       AFS_STATS_FS_RPCIDX_STOREDATA, SHARED_LOCK,
659                       NULL));
660
661             /* put back all remaining locked dcache entries */
662             for (i = 0; i < nchunks; i++) {
663                 struct dcache *tdc = dclist[i];
664                 if (!code) {
665                     if (afs_indexFlags[tdc->index] & IFDataMod) {
666                         /*
667                          * LOCKXXX -- should hold afs_xdcache(W) when
668                          * modifying afs_indexFlags.
669                          */
670                         afs_indexFlags[tdc->index] &= ~IFDataMod;
671                         afs_stats_cmperf.cacheCurrDirtyChunks--;
672                         afs_indexFlags[tdc->index] &= ~IFDirtyPages;
673                         if (sync & AFS_VMSYNC_INVAL) {
674                             /* since we have invalidated all the pages of this
675                              ** vnode by calling osi_VM_TryToSmush, we can
676                              ** safely mark this dcache entry as not having
677                              ** any pages. This vnode now becomes eligible for
678                              ** reclamation by getDownD.
679                              */
680                             afs_indexFlags[tdc->index] &= ~IFAnyPages;
681                         }
682                     }
683                 }
684                 UpgradeSToWLock(&tdc->lock, 628);
685                 tdc->f.states &= ~DWriting;     /* correct? */
686                 tdc->dflags |= DFEntryMod;
687                 ReleaseWriteLock(&tdc->lock);
688                 afs_PutDCache(tdc);
689                 /* Mark the entry as released */
690                 dclist[i] = NULL;
691             }
692
693             if (doProcessFS) {
694                 /* Now copy out return params */
695                 UpgradeSToWLock(&avc->lock, 28);        /* keep out others for a while */
696                 afs_ProcessFS(avc, &OutStatus, areq);
697                 /* Keep last (max) size of file on server to see if
698                  * we need to call afs_StoreMini to extend the file.
699                  */
700                 if (!moredata)
701                     *amaxStoredLength = OutStatus.Length;
702                 ConvertWToSLock(&avc->lock);
703                 doProcessFS = 0;
704             }
705
706             if (code) {
707                 for (j++; j <= high; j++) {
708                     if (dcList[j]) {
709                         ReleaseSharedLock(&(dcList[j]->lock));
710                         afs_PutDCache(dcList[j]);
711                         /* Releasing entry */
712                         dcList[j] = NULL;
713                     }
714                 }
715             }
716
717             afs_Trace2(afs_iclSetp, CM_TRACE_STOREALLDCDONE,
718                        ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code);
719             bytes = 0;
720         }
721     }
722
723     return code;
724 }
725
726 /* rock and operations for RX_FILESERVER */
727
728 struct rxfs_fetchVariables {
729     struct rx_call *call;
730     char *tbuffer;
731     struct iovec *iov;
732     afs_int32 nio;
733     afs_int32 hasNo64bit;
734     afs_int32 iovno;
735     afs_int32 iovmax;
736 };
737
738 afs_int32
739 rxfs_fetchUfsRead(void *r, afs_uint32 size, afs_uint32 *bytesread)
740 {
741     afs_int32 code;
742     afs_uint32 tlen;
743     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)r;
744
745     *bytesread = 0;
746     tlen = (size > AFS_LRALLOCSIZ ?  AFS_LRALLOCSIZ : size);
747     RX_AFS_GUNLOCK();
748     code = rx_Read(v->call, v->tbuffer, tlen);
749     RX_AFS_GLOCK();
750     if (code <= 0)
751         return -34;
752     *bytesread = code;
753     return 0;
754 }
755
756 afs_int32
757 rxfs_fetchMemRead(void *r, afs_uint32 tlen, afs_uint32 *bytesread)
758 {
759     afs_int32 code;
760     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)r;
761
762     *bytesread = 0;
763     RX_AFS_GUNLOCK();
764     code = rx_Readv(v->call, v->iov, &v->nio, RX_MAXIOVECS, tlen);
765     RX_AFS_GLOCK();
766     if (code <= 0)
767         return -34;
768     *bytesread = code;
769     return 0;
770 }
771
772
773 afs_int32
774 rxfs_fetchMemWrite(void *r, struct osi_file *fP,
775                         afs_uint32 offset, afs_uint32 tlen,
776                         afs_uint32 *byteswritten)
777 {
778     afs_int32 code;
779     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)r;
780     struct memCacheEntry *mceP = (struct memCacheEntry *)fP;
781
782     code = afs_MemWritevBlk(mceP, offset, v->iov, v->nio, tlen);
783     if (code != tlen) {
784         return EIO;
785     }
786     *byteswritten = code;
787     return 0;
788 }
789
790 afs_int32
791 rxfs_fetchUfsWrite(void *r, struct osi_file *fP,
792                         afs_uint32 offset, afs_uint32 tlen,
793                         afs_uint32 *byteswritten)
794 {
795     afs_int32 code;
796     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)r;
797
798     code = afs_osi_Write(fP, -1, v->tbuffer, tlen);
799     if (code != tlen) {
800         return EIO;
801     }
802     *byteswritten = code;
803     return 0;
804 }
805
806
807 afs_int32
808 rxfs_fetchClose(void *r, struct vcache *avc, struct dcache * adc,
809                                         struct afs_FetchOutput *o)
810 {
811     afs_int32 code, code1 = 0;
812     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)r;
813
814     if (!v->call)
815         return -1;
816
817     RX_AFS_GUNLOCK();
818 #ifdef AFS_64BIT_CLIENT
819     if (!v->hasNo64bit)
820         code = EndRXAFS_FetchData64(v->call, &o->OutStatus, &o->CallBack,
821                                 &o->tsync);
822     else
823 #endif
824         code = EndRXAFS_FetchData(v->call, &o->OutStatus, &o->CallBack,
825                                 &o->tsync);
826     code1 = rx_EndCall(v->call, code);
827     RX_AFS_GLOCK();
828     if (!code && code1)
829         code = code1;
830
831     v->call = NULL;
832
833     return code;
834 }
835
836 afs_int32
837 rxfs_fetchDestroy(void **r, afs_int32 error)
838 {
839     afs_int32 code = error;
840     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)*r;
841
842     *r = NULL;
843     if (v->call) {
844         RX_AFS_GUNLOCK();
845         code = rx_EndCall(v->call, error);
846         RX_AFS_GLOCK();
847         if (error)
848             code = error;
849     }
850     if (v->tbuffer)
851         osi_FreeLargeSpace(v->tbuffer);
852     if (v->iov)
853         osi_FreeSmallSpace(v->iov);
854     osi_FreeSmallSpace(v);
855     return code;
856 }
857
858 afs_int32
859 rxfs_fetchMore(void *r, afs_int32 *length, afs_uint32 *moredata)
860 {
861     afs_int32 code;
862     struct rxfs_fetchVariables *v = (struct rxfs_fetchVariables *)r;
863
864     /*
865      * The fetch protocol is extended for the AFS/DFS translator
866      * to allow multiple blocks of data, each with its own length,
867      * to be returned. As long as the top bit is set, there are more
868      * blocks expected.
869      *
870      * We do not do this for AFS file servers because they sometimes
871      * return large negative numbers as the transfer size.
872      */
873     if (*moredata) {
874         RX_AFS_GUNLOCK();
875         code = rx_Read(v->call, (void *)length, sizeof(afs_int32));
876         RX_AFS_GLOCK();
877         *length = ntohl(*length);
878         if (code != sizeof(afs_int32)) {
879             code = rx_Error(v->call);
880             *moredata = 0;
881             return (code ? code : -1);  /* try to return code, not -1 */
882         }
883     }
884     *moredata = *length & 0x80000000;
885     *length &= ~0x80000000;
886     return 0;
887 }
888
889 static
890 struct fetchOps rxfs_fetchUfsOps = {
891     rxfs_fetchMore,
892     rxfs_fetchUfsRead,
893     rxfs_fetchUfsWrite,
894     rxfs_fetchClose,
895     rxfs_fetchDestroy
896 };
897
898 static
899 struct fetchOps rxfs_fetchMemOps = {
900     rxfs_fetchMore,
901     rxfs_fetchMemRead,
902     rxfs_fetchMemWrite,
903     rxfs_fetchClose,
904     rxfs_fetchDestroy
905 };
906
907 afs_int32
908 rxfs_fetchInit(struct afs_conn *tc, struct vcache *avc, afs_offs_t base,
909                 afs_uint32 size, afs_int32 *alength, struct dcache *adc,
910                 struct osi_file *fP, struct fetchOps **ops, void **rock)
911 {
912     struct rxfs_fetchVariables *v;
913     int code = 0, code1 = 0;
914 #ifdef AFS_64BIT_CLIENT
915     afs_uint32 length_hi = 0;
916 #endif
917     afs_uint32 length, bytes;
918
919     v = (struct rxfs_fetchVariables *) osi_AllocSmallSpace(sizeof(struct rxfs_fetchVariables));
920     if (!v)
921         osi_Panic("rxfs_fetchInit: osi_AllocSmallSpace returned NULL\n");
922     memset(v, 0, sizeof(struct rxfs_fetchVariables));
923
924     RX_AFS_GUNLOCK();
925     v->call = rx_NewCall(tc->id);
926     RX_AFS_GLOCK();
927     if (v->call) {
928 #ifdef AFS_64BIT_CLIENT
929         afs_size_t length64;     /* as returned from server */
930         if (!afs_serverHasNo64Bit(tc)) {
931             afs_uint64 llbytes = size;
932             RX_AFS_GUNLOCK();
933             code = StartRXAFS_FetchData64(v->call, (struct AFSFid *) &avc->f.fid.Fid,
934                                                base, llbytes);
935             if (code != 0) {
936                 RX_AFS_GLOCK();
937                 afs_Trace2(afs_iclSetp, CM_TRACE_FETCH64CODE,
938                                ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code);
939             } else {
940                 bytes = rx_Read(v->call, (char *)&length_hi, sizeof(afs_int32));
941                 RX_AFS_GLOCK();
942                 if (bytes == sizeof(afs_int32)) {
943                     length_hi = ntohl(length_hi);
944                 } else {
945                     code = rx_Error(v->call);
946                     RX_AFS_GUNLOCK();
947                     code1 = rx_EndCall(v->call, code);
948                     RX_AFS_GLOCK();
949                     v->call = NULL;
950                 }
951             }
952         }
953         if (code == RXGEN_OPCODE || afs_serverHasNo64Bit(tc)) {
954             if (base > 0x7FFFFFFF) {
955                 code = EFBIG;
956             } else {
957                 afs_uint32 pos;
958                 pos = base;
959                 RX_AFS_GUNLOCK();
960                 if (!v->call)
961                     v->call = rx_NewCall(tc->id);
962                 code =
963                     StartRXAFS_FetchData(
964                                 v->call, (struct AFSFid*)&avc->f.fid.Fid,
965                                 pos, size);
966                 RX_AFS_GLOCK();
967             }
968             afs_serverSetNo64Bit(tc);
969         }
970         if (!code) {
971             RX_AFS_GUNLOCK();
972             bytes = rx_Read(v->call, (char *)&length, sizeof(afs_int32));
973             RX_AFS_GLOCK();
974             if (bytes == sizeof(afs_int32))
975                 length = ntohl(length);
976             else {
977                 RX_AFS_GUNLOCK();
978                 code = rx_Error(v->call);
979                 code1 = rx_EndCall(v->call, code);
980                 v->call = NULL;
981                 RX_AFS_GLOCK();
982             }
983         }
984         FillInt64(length64, length_hi, length);
985         afs_Trace3(afs_iclSetp, CM_TRACE_FETCH64LENG,
986                    ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code,
987                    ICL_TYPE_OFFSET,
988                    ICL_HANDLE_OFFSET(length64));
989         *alength = length;
990 #else /* AFS_64BIT_CLIENT */
991         RX_AFS_GUNLOCK();
992         code = StartRXAFS_FetchData(v->call, (struct AFSFid *)&avc->f.fid.Fid,
993                                      base, size);
994         RX_AFS_GLOCK();
995         if (code == 0) {
996             RX_AFS_GUNLOCK();
997             bytes =
998                 rx_Read(v->call, (char *)&length, sizeof(afs_int32));
999             RX_AFS_GLOCK();
1000             if (bytes == sizeof(afs_int32)) {
1001                 *alength = ntohl(length);
1002             } else {
1003                 code = rx_Error(v->call);
1004                 code1 = rx_EndCall(v->call, code);
1005                 v->call = NULL;
1006             }
1007         }
1008 #endif /* AFS_64BIT_CLIENT */
1009     } else
1010         code = -1;
1011
1012     /* We need to cast here, in order to avoid issues if *alength is
1013      * negative. Some, older, fileservers can return a negative length,
1014      * which the rest of the code deals correctly with. */
1015     if (code == 0 && *alength > (afs_int32) size) {
1016         /* The fileserver told us it is going to send more data than we
1017          * requested. It shouldn't do that, and accepting that much data
1018          * can make us take up more cache space than we're supposed to,
1019          * so error. */
1020         code = rx_Error(v->call);
1021         RX_AFS_GUNLOCK();
1022         code1 = rx_EndCall(v->call, code);
1023         RX_AFS_GLOCK();
1024         v->call = NULL;
1025         code = EIO;
1026     }
1027
1028     if (!code && code1)
1029         code = code1;
1030
1031     if (code) {
1032         osi_FreeSmallSpace(v);
1033         return code;
1034     }
1035     if (cacheDiskType == AFS_FCACHE_TYPE_UFS) {
1036         v->tbuffer = osi_AllocLargeSpace(AFS_LRALLOCSIZ);
1037         if (!v->tbuffer)
1038             osi_Panic("rxfs_fetchInit: osi_AllocLargeSpace for iovecs returned NULL\n");
1039         osi_Assert(WriteLocked(&adc->lock));
1040         fP->offset = 0;
1041         *ops = (struct fetchOps *) &rxfs_fetchUfsOps;
1042     }
1043     else {
1044         afs_Trace4(afs_iclSetp, CM_TRACE_MEMFETCH, ICL_TYPE_POINTER, avc,
1045                    ICL_TYPE_POINTER, fP, ICL_TYPE_OFFSET,
1046                    ICL_HANDLE_OFFSET(base), ICL_TYPE_INT32, length);
1047         /*
1048          * We need to alloc the iovecs on the heap so that they are "pinned"
1049          * rather than declare them on the stack - defect 11272
1050          */
1051         v->iov = osi_AllocSmallSpace(sizeof(struct iovec) * RX_MAXIOVECS);
1052         if (!v->iov)
1053             osi_Panic("rxfs_fetchInit: osi_AllocSmallSpace for iovecs returned NULL\n");
1054         *ops = (struct fetchOps *) &rxfs_fetchMemOps;
1055     }
1056     *rock = (void *)v;
1057     return 0;
1058 }
1059
1060
1061 /*!
1062  * Routine called on fetch; also tells people waiting for data
1063  *      that more has arrived.
1064  *
1065  * \param tc Ptr to the Rx connection structure.
1066  * \param fP File descriptor for the cache file.
1067  * \param base Base offset to fetch.
1068  * \param adc Ptr to the dcache entry for the file, write-locked.
1069  * \param avc Ptr to the vcache entry for the file.
1070  * \param size Amount of data that should be fetched.
1071  * \param tsmall Ptr to the afs_FetchOutput structure.
1072  *
1073  * \note Environment: Nothing interesting.
1074  */
1075 int
1076 afs_CacheFetchProc(struct afs_conn *tc, struct osi_file *fP, afs_size_t base,
1077                     struct dcache *adc, struct vcache *avc, afs_int32 size,
1078                     struct afs_FetchOutput *tsmall)
1079 {
1080     afs_int32 code;
1081     afs_int32 length;
1082     afs_uint32 bytesread, byteswritten;
1083     struct fetchOps *ops = NULL;
1084     void *rock = NULL;
1085     afs_uint32 moredata = 0;
1086     int offset = 0;
1087
1088     XSTATS_DECLS;
1089 #ifndef AFS_NOSTATS
1090     osi_timeval_t xferStartTime;        /*FS xfer start time */
1091     afs_size_t bytesToXfer = 0, bytesXferred = 0;
1092 #endif
1093
1094     AFS_STATCNT(CacheFetchProc);
1095
1096     XSTATS_START_TIME(AFS_STATS_FS_RPCIDX_FETCHDATA);
1097
1098     /*
1099      * Locks held:
1100      * avc->lock(R) if setLocks && !slowPass
1101      * avc->lock(W) if !setLocks || slowPass
1102      * adc->lock(W)
1103      */
1104     code = rxfs_fetchInit(
1105                 tc, avc, base, size, &length, adc, fP, &ops, &rock);
1106
1107 #ifndef AFS_NOSTATS
1108     osi_GetuTime(&xferStartTime);
1109 #endif /* AFS_NOSTATS */
1110
1111     if (adc) {
1112         adc->validPos = base;
1113     }
1114
1115     if ( !code ) do {
1116         if (avc->f.states & CForeign) {
1117             code = (*ops->more)(rock, &length, &moredata);
1118             if ( code )
1119                 break;
1120         }
1121 #ifndef AFS_NOSTATS
1122         bytesToXfer += length;
1123 #endif /* AFS_NOSTATS */
1124         while (length > 0) {
1125 #ifdef RX_KERNEL_TRACE
1126             afs_Trace1(afs_iclSetp, CM_TRACE_TIMESTAMP, ICL_TYPE_STRING,
1127                        "before rx_Read");
1128 #endif
1129             code = (*ops->read)(rock, length, &bytesread);
1130 #ifdef RX_KERNEL_TRACE
1131             afs_Trace1(afs_iclSetp, CM_TRACE_TIMESTAMP, ICL_TYPE_STRING,
1132                        "after rx_Read");
1133 #endif
1134 #ifndef AFS_NOSTATS
1135             bytesXferred += bytesread;
1136 #endif /* AFS_NOSTATS */
1137             if ( code ) {
1138                 afs_Trace3(afs_iclSetp, CM_TRACE_FETCH64READ,
1139                            ICL_TYPE_POINTER, avc, ICL_TYPE_INT32, code,
1140                            ICL_TYPE_INT32, length);
1141                 code = -34;
1142                 break;
1143             }
1144             code = (*ops->write)(rock, fP, offset, bytesread, &byteswritten);
1145             if ( code )
1146                 break;
1147             offset += bytesread;
1148             base += bytesread;
1149             length -= bytesread;
1150             adc->validPos = base;
1151             if (afs_osi_Wakeup(&adc->validPos) == 0)
1152                 afs_Trace4(afs_iclSetp, CM_TRACE_DCACHEWAKE, ICL_TYPE_STRING,
1153                            __FILE__, ICL_TYPE_INT32, __LINE__,
1154                            ICL_TYPE_POINTER, adc, ICL_TYPE_INT32,
1155                            adc->dflags);
1156         }
1157         code = 0;
1158     } while (moredata);
1159     if (!code)
1160         code = (*ops->close)(rock, avc, adc, tsmall);
1161     if (ops)
1162         (*ops->destroy)(&rock, code);
1163
1164 #ifndef AFS_NOSTATS
1165     FillStoreStats(code, AFS_STATS_FS_XFERIDX_FETCHDATA, &xferStartTime,
1166                         bytesToXfer, bytesXferred);
1167 #endif
1168     XSTATS_END_TIME;
1169     return code;
1170 }