Linux: Use filehandles for all 2.6 kernels
[openafs.git] / src / afs / LINUX / osi_file.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13
14 #include <linux/module.h> /* early to avoid printf->printk mapping */
15 #include "afs/sysincludes.h"    /* Standard vendor system headers */
16 #include "afsincludes.h"        /* Afs-based standard headers */
17 #include "afs/afs_stats.h"      /* afs statistics */
18 #include <linux/smp_lock.h>
19 #include <linux/namei.h>
20
21 #if defined(HAVE_LINUX_EXPORTFS_H)
22 #include <linux/exportfs.h>
23 #endif
24 #include "osi_compat.h"
25
26 int cache_fh_type = -1;
27 int cache_fh_len = -1;
28
29 afs_lock_t afs_xosi;            /* lock is for tvattr */
30 extern struct osi_dev cacheDev;
31 extern struct vfsmount *afs_cacheMnt;
32 extern struct super_block *afs_cacheSBp;
33 #if defined(STRUCT_TASK_STRUCT_HAS_CRED)
34 extern struct cred *cache_creds;
35 #endif
36
37 /* Old export ops: decode_fh will call back here. Accept any dentry it suggests */
38 int
39 afs_fh_acceptable(void *context, struct dentry *dp)
40 {
41     return 1;
42 }
43
44 struct file *
45 afs_linux_raw_open(afs_dcache_id_t *ainode)
46 {
47     struct inode *tip = NULL;
48     struct dentry *dp = NULL;
49     struct file* filp;
50
51     dp = afs_get_dentry_from_fh(afs_cacheSBp, ainode, cache_fh_len, cache_fh_type,
52                 afs_fh_acceptable);
53     if (!dp)
54            osi_Panic("Can't get dentry\n");
55     tip = dp->d_inode;
56     tip->i_flags |= S_NOATIME;  /* Disable updating access times. */
57
58 #if defined(STRUCT_TASK_STRUCT_HAS_CRED)
59     /* Use stashed credentials - prevent selinux/apparmor problems  */
60     filp = dentry_open(dp, mntget(afs_cacheMnt), O_RDWR, cache_creds);
61     if (IS_ERR(filp))
62         filp = dentry_open(dp, mntget(afs_cacheMnt), O_RDWR, current_cred());
63 #else
64     filp = dentry_open(dp, mntget(afs_cacheMnt), O_RDWR);
65 #endif
66     if (IS_ERR(filp))
67         osi_Panic("Can't open file: %d\n", (int) PTR_ERR(filp));
68     return filp;
69 }
70
71 void *
72 osi_UFSOpen(afs_dcache_id_t *ainode)
73 {
74     struct osi_file *afile = NULL;
75     extern int cacheDiskType;
76
77     AFS_STATCNT(osi_UFSOpen);
78     if (cacheDiskType != AFS_FCACHE_TYPE_UFS) {
79         osi_Panic("UFSOpen called for non-UFS cache\n");
80     }
81     if (!afs_osicred_initialized) {
82         /* valid for alpha_osf, SunOS, Ultrix */
83         memset(&afs_osi_cred, 0, sizeof(afs_ucred_t));
84         crhold(&afs_osi_cred);  /* don't let it evaporate, since it is static */
85         afs_osicred_initialized = 1;
86     }
87     afile = (struct osi_file *)osi_AllocLargeSpace(sizeof(struct osi_file));
88     AFS_GUNLOCK();
89     if (!afile) {
90         osi_Panic("osi_UFSOpen: Failed to allocate %d bytes for osi_file.\n",
91                   (int)sizeof(struct osi_file));
92     }
93     memset(afile, 0, sizeof(struct osi_file));
94
95     afile->filp = afs_linux_raw_open(ainode);
96     afile->size = i_size_read(FILE_INODE(afile->filp));
97     AFS_GLOCK();
98     afile->offset = 0;
99     afile->proc = (int (*)())0;
100     return (void *)afile;
101 }
102
103 /*
104  * Given a dentry, return the file handle as encoded by the filesystem.
105  * We can't assume anything about the length (words, not bytes).
106  * The cache has to live on a single filesystem with uniform file 
107  * handles, otherwise we panic.
108  */
109 void osi_get_fh(struct dentry *dp, afs_ufs_dcache_id_t *ainode) {
110     int max_len;
111     int type;
112
113     if (cache_fh_len > 0)
114         max_len = cache_fh_len;
115     else
116         max_len = MAX_FH_LEN;
117     type = afs_get_fh_from_dentry(dp, ainode, &max_len);
118     if (type == 255) {
119         osi_Panic("File handle encoding failed\n");
120     }
121     if (cache_fh_type < 0)
122         cache_fh_type = type;
123     if (cache_fh_len < 0) {
124         cache_fh_len = max_len;
125     }
126     if (type != cache_fh_type || max_len != cache_fh_len) {
127         osi_Panic("Inconsistent file handles within cache\n");
128     }
129 }
130
131 int
132 afs_osi_Stat(register struct osi_file *afile, register struct osi_stat *astat)
133 {
134     AFS_STATCNT(osi_Stat);
135     ObtainWriteLock(&afs_xosi, 320);
136     astat->size = i_size_read(OSIFILE_INODE(afile));
137     astat->mtime = OSIFILE_INODE(afile)->i_mtime.tv_sec;
138     astat->atime = OSIFILE_INODE(afile)->i_atime.tv_sec;
139
140     ReleaseWriteLock(&afs_xosi);
141     return 0;
142 }
143
144 int
145 osi_UFSClose(register struct osi_file *afile)
146 {
147     AFS_STATCNT(osi_Close);
148     if (afile) {
149         if (OSIFILE_INODE(afile)) {
150             filp_close(afile->filp, NULL);
151         }
152     }
153
154     osi_FreeLargeSpace(afile);
155     return 0;
156 }
157
158 int
159 osi_UFSTruncate(register struct osi_file *afile, afs_int32 asize)
160 {
161     register afs_int32 code;
162     struct osi_stat tstat;
163     struct iattr newattrs;
164     struct inode *inode = OSIFILE_INODE(afile);
165     AFS_STATCNT(osi_Truncate);
166
167     /* This routine only shrinks files, and most systems
168      * have very slow truncates, even when the file is already
169      * small enough.  Check now and save some time.
170      */
171     code = afs_osi_Stat(afile, &tstat);
172     if (code || tstat.size <= asize)
173         return code;
174     ObtainWriteLock(&afs_xosi, 321);
175     AFS_GUNLOCK();
176 #ifdef STRUCT_INODE_HAS_I_MUTEX
177     mutex_lock(&inode->i_mutex);
178 #else
179     down(&inode->i_sem);
180 #endif
181 #ifdef STRUCT_INODE_HAS_I_ALLOC_SEM
182     down_write(&inode->i_alloc_sem);
183 #endif
184     newattrs.ia_size = asize;
185     newattrs.ia_valid = ATTR_SIZE | ATTR_CTIME;
186     newattrs.ia_ctime = CURRENT_TIME;
187
188     /* avoid notify_change() since it wants to update dentry->d_parent */
189     code = inode_change_ok(inode, &newattrs);
190     if (!code) {
191 #ifdef INODE_SETATTR_NOT_VOID
192         if (inode->i_op && inode->i_op->setattr)
193             code = inode->i_op->setattr(afile->filp->f_dentry, &newattrs);
194         else
195             code = inode_setattr(inode, &newattrs);
196 #else
197         inode_setattr(inode, &newattrs);
198 #endif
199     }
200     if (!code)
201         truncate_inode_pages(&inode->i_data, asize);
202     code = -code;
203 #ifdef STRUCT_INODE_HAS_I_ALLOC_SEM
204     up_write(&inode->i_alloc_sem);
205 #endif
206 #ifdef STRUCT_INODE_HAS_I_MUTEX
207     mutex_unlock(&inode->i_mutex);
208 #else
209     up(&inode->i_sem);
210 #endif
211     AFS_GLOCK();
212     ReleaseWriteLock(&afs_xosi);
213     return code;
214 }
215
216
217 /* Generic read interface */
218 int
219 afs_osi_Read(register struct osi_file *afile, int offset, void *aptr,
220              afs_int32 asize)
221 {
222     struct uio auio;
223     struct iovec iov;
224     afs_int32 code;
225
226     AFS_STATCNT(osi_Read);
227
228     /*
229      * If the osi_file passed in is NULL, panic only if AFS is not shutting
230      * down. No point in crashing when we are already shutting down
231      */
232     if (!afile) {
233         if (!afs_shuttingdown)
234             osi_Panic("osi_Read called with null param");
235         else
236             return EIO;
237     }
238
239     if (offset != -1)
240         afile->offset = offset;
241     setup_uio(&auio, &iov, aptr, afile->offset, asize, UIO_READ, AFS_UIOSYS);
242     AFS_GUNLOCK();
243     code = osi_rdwr(afile, &auio, UIO_READ);
244     AFS_GLOCK();
245     if (code == 0) {
246         code = asize - auio.uio_resid;
247         afile->offset += code;
248     } else {
249         afs_Trace2(afs_iclSetp, CM_TRACE_READFAILED, ICL_TYPE_INT32, auio.uio_resid,
250                    ICL_TYPE_INT32, code);
251         code = -1;
252     }
253     return code;
254 }
255
256 /* Generic write interface */
257 int
258 afs_osi_Write(register struct osi_file *afile, afs_int32 offset, void *aptr,
259               afs_int32 asize)
260 {
261     struct uio auio;
262     struct iovec iov;
263     afs_int32 code;
264
265     AFS_STATCNT(osi_Write);
266
267     if (!afile) {
268         if (!afs_shuttingdown)
269             osi_Panic("afs_osi_Write called with null param");
270         else
271             return EIO;
272     }
273
274     if (offset != -1)
275         afile->offset = offset;
276     setup_uio(&auio, &iov, aptr, afile->offset, asize, UIO_WRITE, AFS_UIOSYS);
277     AFS_GUNLOCK();
278     code = osi_rdwr(afile, &auio, UIO_WRITE);
279     AFS_GLOCK();
280     if (code == 0) {
281         code = asize - auio.uio_resid;
282         afile->offset += code;
283     } else {
284         if (code == ENOSPC)
285             afs_warnuser
286                 ("\n\n\n*** Cache partition is FULL - Decrease cachesize!!! ***\n\n");
287         code = -1;
288     }
289
290     if (afile->proc)
291         (*afile->proc)(afile, code);
292
293     return code;
294 }
295
296
297 /*  This work should be handled by physstrat in ca/machdep.c.
298     This routine written from the RT NFS port strategy routine.
299     It has been generalized a bit, but should still be pretty clear. */
300 int
301 afs_osi_MapStrategy(int (*aproc) (struct buf * bp), register struct buf *bp)
302 {
303     afs_int32 returnCode;
304
305     AFS_STATCNT(osi_MapStrategy);
306     returnCode = (*aproc) (bp);
307
308     return returnCode;
309 }
310
311 void
312 shutdown_osifile(void)
313 {
314     AFS_STATCNT(shutdown_osifile);
315     if (afs_cold_shutdown) {
316         afs_osicred_initialized = 0;
317     }
318 }
319
320 /* Intialize cache device info and fragment size for disk cache partition. */
321 int
322 osi_InitCacheInfo(char *aname)
323 {
324     int code;
325     extern afs_dcache_id_t cacheInode;
326     struct dentry *dp;
327     extern struct osi_dev cacheDev;
328     extern afs_int32 afs_fsfragsize;
329     extern struct super_block *afs_cacheSBp;
330     extern struct vfsmount *afs_cacheMnt;
331     code = osi_lookupname_internal(aname, 1, &afs_cacheMnt, &dp);
332     if (code)
333         return ENOENT;
334
335     osi_get_fh(dp, &cacheInode.ufs);
336     cacheDev.dev = dp->d_inode->i_sb->s_dev;
337     afs_fsfragsize = dp->d_inode->i_sb->s_blocksize - 1;
338     afs_cacheSBp = dp->d_inode->i_sb;
339
340     dput(dp);
341
342     afs_init_sb_export_ops(afs_cacheSBp);
343
344     return 0;
345 }
346
347
348 /* osi_rdwr
349  * seek, then read or write to an open inode. addrp points to data in
350  * kernel space.
351  */
352 int
353 osi_rdwr(struct osi_file *osifile, uio_t * uiop, int rw)
354 {
355     struct file *filp = osifile->filp;
356     mm_segment_t old_fs = {0};
357     int code = 0;
358     struct iovec *iov;
359     size_t count;
360     unsigned long savelim;
361     loff_t pos;
362
363     savelim = current->TASK_STRUCT_RLIM[RLIMIT_FSIZE].rlim_cur;
364     current->TASK_STRUCT_RLIM[RLIMIT_FSIZE].rlim_cur = RLIM_INFINITY;
365
366     if (uiop->uio_seg == AFS_UIOSYS) {
367         /* Switch into user space */
368         old_fs = get_fs();
369         set_fs(get_ds());
370     }
371
372     while (code == 0 && uiop->uio_resid > 0 && uiop->uio_iovcnt > 0) {
373         iov = uiop->uio_iov;
374         count = iov->iov_len;
375         if (count == 0) {
376             uiop->uio_iov++;
377             uiop->uio_iovcnt--;
378             continue;
379         }
380
381         pos = uiop->uio_offset;
382         if (rw == UIO_READ)
383             code = filp->f_op->read(filp, iov->iov_base, count, &pos);
384         else
385             code = filp->f_op->write(filp, iov->iov_base, count, &pos);
386
387         if (code < 0) {
388             code = -code;
389             break;
390         } else if (code == 0) {
391             /*
392              * This is bad -- we can't read any more data from the
393              * file, but we have no good way of signaling a partial
394              * read either.
395              */
396             code = EIO;
397             break;
398         }
399
400         iov->iov_base += code;
401         iov->iov_len -= code;
402         uiop->uio_resid -= code;
403         uiop->uio_offset += code;
404         code = 0;
405     }
406
407     if (uiop->uio_seg == AFS_UIOSYS) {
408         /* Switch back into kernel space */
409         set_fs(old_fs);
410     }
411
412     current->TASK_STRUCT_RLIM[RLIMIT_FSIZE].rlim_cur = savelim;
413
414     return code;
415 }
416
417 /* setup_uio 
418  * Setup a uio struct.
419  */
420 void
421 setup_uio(uio_t * uiop, struct iovec *iovecp, const char *buf, afs_offs_t pos,
422           int count, uio_flag_t flag, uio_seg_t seg)
423 {
424     iovecp->iov_base = (char *)buf;
425     iovecp->iov_len = count;
426     uiop->uio_iov = iovecp;
427     uiop->uio_iovcnt = 1;
428     uiop->uio_offset = pos;
429     uiop->uio_seg = seg;
430     uiop->uio_resid = count;
431     uiop->uio_flag = flag;
432 }
433
434
435 /* uiomove
436  * UIO_READ : dp -> uio
437  * UIO_WRITE : uio -> dp
438  */
439 int
440 uiomove(char *dp, int length, uio_flag_t rw, uio_t * uiop)
441 {
442     int count;
443     struct iovec *iov;
444     int code;
445
446     while (length > 0 && uiop->uio_resid > 0 && uiop->uio_iovcnt > 0) {
447         iov = uiop->uio_iov;
448         count = iov->iov_len;
449
450         if (!count) {
451             uiop->uio_iov++;
452             uiop->uio_iovcnt--;
453             continue;
454         }
455
456         if (count > length)
457             count = length;
458
459         switch (uiop->uio_seg) {
460         case AFS_UIOSYS:
461             switch (rw) {
462             case UIO_READ:
463                 memcpy(iov->iov_base, dp, count);
464                 break;
465             case UIO_WRITE:
466                 memcpy(dp, iov->iov_base, count);
467                 break;
468             default:
469                 printf("uiomove: Bad rw = %d\n", rw);
470                 return -EINVAL;
471             }
472             break;
473         case AFS_UIOUSER:
474             switch (rw) {
475             case UIO_READ:
476                 AFS_COPYOUT(dp, iov->iov_base, count, code);
477                 break;
478             case UIO_WRITE:
479                 AFS_COPYIN(iov->iov_base, dp, count, code);
480                 break;
481             default:
482                 printf("uiomove: Bad rw = %d\n", rw);
483                 return -EINVAL;
484             }
485             break;
486         default:
487             printf("uiomove: Bad seg = %d\n", uiop->uio_seg);
488             return -EINVAL;
489         }
490
491         dp += count;
492         length -= count;
493         iov->iov_base += count;
494         iov->iov_len -= count;
495         uiop->uio_offset += count;
496         uiop->uio_resid -= count;
497     }
498     return 0;
499 }
500