LINUX: Avoid duplicate mntget in afs_linux_raw_open
[openafs.git] / src / afs / LINUX / osi_file.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10 #include <afsconfig.h>
11 #include "afs/param.h"
12
13
14 #include <linux/module.h> /* early to avoid printf->printk mapping */
15 #include "afs/sysincludes.h"    /* Standard vendor system headers */
16 #include "afsincludes.h"        /* Afs-based standard headers */
17 #include "afs/afs_stats.h"      /* afs statistics */
18 #include <linux/namei.h>
19
20 #if defined(HAVE_LINUX_EXPORTFS_H)
21 #include <linux/exportfs.h>
22 #endif
23 #include "osi_compat.h"
24
25 int cache_fh_type = -1;
26 int cache_fh_len = -1;
27
28 afs_lock_t afs_xosi;            /* lock is for tvattr */
29 extern struct osi_dev cacheDev;
30 extern struct vfsmount *afs_cacheMnt;
31 extern struct super_block *afs_cacheSBp;
32 #if defined(STRUCT_TASK_STRUCT_HAS_CRED)
33 extern struct cred *cache_creds;
34 #endif
35
36 /* Old export ops: decode_fh will call back here. Accept any dentry it suggests */
37 int
38 afs_fh_acceptable(void *context, struct dentry *dp)
39 {
40     return 1;
41 }
42
43 struct file *
44 afs_linux_raw_open(afs_dcache_id_t *ainode)
45 {
46     struct inode *tip = NULL;
47     struct dentry *dp = NULL;
48     struct file* filp;
49
50     dp = afs_get_dentry_from_fh(afs_cacheSBp, ainode, cache_fh_len, cache_fh_type,
51                 afs_fh_acceptable);
52     if ((!dp) || IS_ERR(dp))
53            osi_Panic("Can't get dentry\n");
54     tip = dp->d_inode;
55     tip->i_flags |= S_NOATIME;  /* Disable updating access times. */
56
57     /* note that if this is ever changed to recover from errors, we will need
58      * to put this reference back */
59     mntget(afs_cacheMnt);
60
61 #if defined(STRUCT_TASK_STRUCT_HAS_CRED)
62     /* Use stashed credentials - prevent selinux/apparmor problems  */
63     filp = afs_dentry_open(dp, afs_cacheMnt, O_RDWR, cache_creds);
64     if (IS_ERR(filp))
65         filp = afs_dentry_open(dp, afs_cacheMnt, O_RDWR, current_cred());
66 #else
67     filp = dentry_open(dp, afs_cacheMnt, O_RDWR);
68 #endif
69     if (IS_ERR(filp))
70         osi_Panic("Can't open file: %d\n", (int) PTR_ERR(filp));
71     return filp;
72 }
73
74 void *
75 osi_UFSOpen(afs_dcache_id_t *ainode)
76 {
77     struct osi_file *afile = NULL;
78     extern int cacheDiskType;
79
80     AFS_STATCNT(osi_UFSOpen);
81     if (cacheDiskType != AFS_FCACHE_TYPE_UFS) {
82         osi_Panic("UFSOpen called for non-UFS cache\n");
83     }
84     if (!afs_osicred_initialized) {
85         /* valid for alpha_osf, SunOS, Ultrix */
86         memset(&afs_osi_cred, 0, sizeof(afs_ucred_t));
87         crhold(&afs_osi_cred);  /* don't let it evaporate, since it is static */
88         afs_osicred_initialized = 1;
89     }
90     AFS_GUNLOCK();
91     afile = kmalloc(sizeof(struct osi_file), GFP_NOFS);
92     if (!afile) {
93         osi_Panic("osi_UFSOpen: Failed to allocate %d bytes for osi_file.\n",
94                   (int)sizeof(struct osi_file));
95     }
96     memset(afile, 0, sizeof(struct osi_file));
97
98     afile->filp = afs_linux_raw_open(ainode);
99     afile->size = i_size_read(FILE_INODE(afile->filp));
100     AFS_GLOCK();
101     afile->offset = 0;
102     afile->proc = (int (*)())0;
103     return (void *)afile;
104 }
105
106 /*
107  * Given a dentry, return the file handle as encoded by the filesystem.
108  * We can't assume anything about the length (words, not bytes).
109  * The cache has to live on a single filesystem with uniform file 
110  * handles, otherwise we panic.
111  */
112 void osi_get_fh(struct dentry *dp, afs_ufs_dcache_id_t *ainode) {
113     int max_len;
114     int type;
115
116     if (cache_fh_len > 0)
117         max_len = cache_fh_len;
118     else
119         max_len = MAX_FH_LEN;
120     type = afs_get_fh_from_dentry(dp, ainode, &max_len);
121     if (type == 255) {
122         osi_Panic("File handle encoding failed\n");
123     }
124     if (cache_fh_type < 0)
125         cache_fh_type = type;
126     if (cache_fh_len < 0) {
127         cache_fh_len = max_len;
128     }
129     if (type != cache_fh_type || max_len != cache_fh_len) {
130         osi_Panic("Inconsistent file handles within cache\n");
131     }
132 }
133
134 int
135 afs_osi_Stat(struct osi_file *afile, struct osi_stat *astat)
136 {
137     AFS_STATCNT(osi_Stat);
138     ObtainWriteLock(&afs_xosi, 320);
139     astat->size = i_size_read(OSIFILE_INODE(afile));
140     astat->mtime = OSIFILE_INODE(afile)->i_mtime.tv_sec;
141     astat->atime = OSIFILE_INODE(afile)->i_atime.tv_sec;
142
143     ReleaseWriteLock(&afs_xosi);
144     return 0;
145 }
146
147 int
148 osi_UFSClose(struct osi_file *afile)
149 {
150     AFS_STATCNT(osi_Close);
151     if (afile) {
152         if (OSIFILE_INODE(afile)) {
153             filp_close(afile->filp, NULL);
154         }
155     }
156     kfree(afile);
157     return 0;
158 }
159
160 int
161 osi_UFSTruncate(struct osi_file *afile, afs_int32 asize)
162 {
163     afs_int32 code;
164     struct osi_stat tstat;
165     struct iattr newattrs;
166     struct inode *inode = OSIFILE_INODE(afile);
167     AFS_STATCNT(osi_Truncate);
168
169     /* This routine only shrinks files, and most systems
170      * have very slow truncates, even when the file is already
171      * small enough.  Check now and save some time.
172      */
173     code = afs_osi_Stat(afile, &tstat);
174     if (code || tstat.size <= asize)
175         return code;
176     ObtainWriteLock(&afs_xosi, 321);
177     AFS_GUNLOCK();
178     afs_linux_lock_inode(inode);
179 #ifdef STRUCT_INODE_HAS_I_ALLOC_SEM
180     down_write(&inode->i_alloc_sem);
181 #endif
182     newattrs.ia_size = asize;
183     newattrs.ia_valid = ATTR_SIZE | ATTR_CTIME;
184     newattrs.ia_ctime = CURRENT_TIME;
185
186     /* avoid notify_change() since it wants to update dentry->d_parent */
187     code = inode_change_ok(inode, &newattrs);
188     if (!code)
189         code = afs_inode_setattr(afile, &newattrs);
190     if (!code)
191         truncate_inode_pages(&inode->i_data, asize);
192     code = -code;
193 #ifdef STRUCT_INODE_HAS_I_ALLOC_SEM
194     up_write(&inode->i_alloc_sem);
195 #endif
196     afs_linux_unlock_inode(inode);
197     AFS_GLOCK();
198     ReleaseWriteLock(&afs_xosi);
199     return code;
200 }
201
202
203 /* Generic read interface */
204 int
205 afs_osi_Read(struct osi_file *afile, int offset, void *aptr,
206              afs_int32 asize)
207 {
208     struct uio auio;
209     struct iovec iov;
210     afs_int32 code;
211
212     AFS_STATCNT(osi_Read);
213
214     /*
215      * If the osi_file passed in is NULL, panic only if AFS is not shutting
216      * down. No point in crashing when we are already shutting down
217      */
218     if (!afile) {
219         if (!afs_shuttingdown)
220             osi_Panic("osi_Read called with null param");
221         else
222             return -EIO;
223     }
224
225     if (offset != -1)
226         afile->offset = offset;
227     setup_uio(&auio, &iov, aptr, afile->offset, asize, UIO_READ, AFS_UIOSYS);
228     AFS_GUNLOCK();
229     code = osi_rdwr(afile, &auio, UIO_READ);
230     AFS_GLOCK();
231     if (code == 0) {
232         code = asize - auio.uio_resid;
233         afile->offset += code;
234     } else {
235         afs_Trace2(afs_iclSetp, CM_TRACE_READFAILED, ICL_TYPE_INT32, auio.uio_resid,
236                    ICL_TYPE_INT32, code);
237         if (code > 0) {
238             code = -code;
239         }
240     }
241     return code;
242 }
243
244 /* Generic write interface */
245 int
246 afs_osi_Write(struct osi_file *afile, afs_int32 offset, void *aptr,
247               afs_int32 asize)
248 {
249     struct uio auio;
250     struct iovec iov;
251     afs_int32 code;
252
253     AFS_STATCNT(osi_Write);
254
255     if (!afile) {
256         if (!afs_shuttingdown)
257             osi_Panic("afs_osi_Write called with null param");
258         else
259             return -EIO;
260     }
261
262     if (offset != -1)
263         afile->offset = offset;
264     setup_uio(&auio, &iov, aptr, afile->offset, asize, UIO_WRITE, AFS_UIOSYS);
265     AFS_GUNLOCK();
266     code = osi_rdwr(afile, &auio, UIO_WRITE);
267     AFS_GLOCK();
268     if (code == 0) {
269         code = asize - auio.uio_resid;
270         afile->offset += code;
271     } else {
272         if (code == ENOSPC)
273             afs_warnuser
274                 ("\n\n\n*** Cache partition is FULL - Decrease cachesize!!! ***\n\n");
275         if (code > 0) {
276             code = -code;
277         }
278     }
279
280     if (afile->proc)
281         (*afile->proc)(afile, code);
282
283     return code;
284 }
285
286
287 /*  This work should be handled by physstrat in ca/machdep.c.
288     This routine written from the RT NFS port strategy routine.
289     It has been generalized a bit, but should still be pretty clear. */
290 int
291 afs_osi_MapStrategy(int (*aproc) (struct buf * bp), struct buf *bp)
292 {
293     afs_int32 returnCode;
294
295     AFS_STATCNT(osi_MapStrategy);
296     returnCode = (*aproc) (bp);
297
298     return returnCode;
299 }
300
301 void
302 shutdown_osifile(void)
303 {
304     AFS_STATCNT(shutdown_osifile);
305     if (afs_cold_shutdown) {
306         afs_osicred_initialized = 0;
307     }
308 }
309
310 /* Intialize cache device info and fragment size for disk cache partition. */
311 int
312 osi_InitCacheInfo(char *aname)
313 {
314     int code;
315     extern afs_dcache_id_t cacheInode;
316     struct dentry *dp;
317     extern struct osi_dev cacheDev;
318     extern afs_int32 afs_fsfragsize;
319     extern struct super_block *afs_cacheSBp;
320     extern struct vfsmount *afs_cacheMnt;
321     code = osi_lookupname_internal(aname, 1, &afs_cacheMnt, &dp);
322     if (code)
323         return ENOENT;
324
325     osi_get_fh(dp, &cacheInode.ufs);
326     cacheDev.dev = dp->d_inode->i_sb->s_dev;
327     afs_fsfragsize = dp->d_inode->i_sb->s_blocksize - 1;
328     afs_cacheSBp = dp->d_inode->i_sb;
329
330     dput(dp);
331
332     afs_init_sb_export_ops(afs_cacheSBp);
333
334     return 0;
335 }
336
337
338 /* osi_rdwr
339  * seek, then read or write to an open inode. addrp points to data in
340  * kernel space.
341  */
342 int
343 osi_rdwr(struct osi_file *osifile, struct uio *uiop, int rw)
344 {
345     struct file *filp = osifile->filp;
346     mm_segment_t old_fs = {0};
347     int code = 0;
348     struct iovec *iov;
349     size_t count;
350     unsigned long savelim;
351     loff_t pos;
352
353     savelim = current->TASK_STRUCT_RLIM[RLIMIT_FSIZE].rlim_cur;
354     current->TASK_STRUCT_RLIM[RLIMIT_FSIZE].rlim_cur = RLIM_INFINITY;
355
356     if (uiop->uio_seg == AFS_UIOSYS) {
357         /* Switch into user space */
358         old_fs = get_fs();
359         set_fs(get_ds());
360     }
361
362     while (code == 0 && uiop->uio_resid > 0 && uiop->uio_iovcnt > 0) {
363         iov = uiop->uio_iov;
364         count = iov->iov_len;
365         if (count == 0) {
366             uiop->uio_iov++;
367             uiop->uio_iovcnt--;
368             continue;
369         }
370
371         pos = uiop->uio_offset;
372         if (rw == UIO_READ)
373             code = filp->f_op->read(filp, iov->iov_base, count, &pos);
374         else
375             code = filp->f_op->write(filp, iov->iov_base, count, &pos);
376
377         if (code < 0) {
378             code = -code;
379             break;
380         } else if (code == 0) {
381             /*
382              * This is bad -- we can't read any more data from the
383              * file, but we have no good way of signaling a partial
384              * read either.
385              */
386             code = EIO;
387             break;
388         }
389
390         iov->iov_base += code;
391         iov->iov_len -= code;
392         uiop->uio_resid -= code;
393         uiop->uio_offset += code;
394         code = 0;
395     }
396
397     if (uiop->uio_seg == AFS_UIOSYS) {
398         /* Switch back into kernel space */
399         set_fs(old_fs);
400     }
401
402     current->TASK_STRUCT_RLIM[RLIMIT_FSIZE].rlim_cur = savelim;
403
404     return code;
405 }
406
407 /* setup_uio 
408  * Setup a uio struct.
409  */
410 void
411 setup_uio(struct uio *uiop, struct iovec *iovecp, const char *buf, afs_offs_t pos,
412           int count, uio_flag_t flag, uio_seg_t seg)
413 {
414     iovecp->iov_base = (char *)buf;
415     iovecp->iov_len = count;
416     uiop->uio_iov = iovecp;
417     uiop->uio_iovcnt = 1;
418     uiop->uio_offset = pos;
419     uiop->uio_seg = seg;
420     uiop->uio_resid = count;
421     uiop->uio_flag = flag;
422 }
423
424
425 /* uiomove
426  * UIO_READ : dp -> uio
427  * UIO_WRITE : uio -> dp
428  */
429 int
430 uiomove(char *dp, int length, uio_flag_t rw, struct uio *uiop)
431 {
432     int count;
433     struct iovec *iov;
434     int code;
435
436     while (length > 0 && uiop->uio_resid > 0 && uiop->uio_iovcnt > 0) {
437         iov = uiop->uio_iov;
438         count = iov->iov_len;
439
440         if (!count) {
441             uiop->uio_iov++;
442             uiop->uio_iovcnt--;
443             continue;
444         }
445
446         if (count > length)
447             count = length;
448
449         switch (uiop->uio_seg) {
450         case AFS_UIOSYS:
451             switch (rw) {
452             case UIO_READ:
453                 memcpy(iov->iov_base, dp, count);
454                 break;
455             case UIO_WRITE:
456                 memcpy(dp, iov->iov_base, count);
457                 break;
458             default:
459                 printf("uiomove: Bad rw = %d\n", rw);
460                 return -EINVAL;
461             }
462             break;
463         case AFS_UIOUSER:
464             switch (rw) {
465             case UIO_READ:
466                 AFS_COPYOUT(dp, iov->iov_base, count, code);
467                 break;
468             case UIO_WRITE:
469                 AFS_COPYIN(iov->iov_base, dp, count, code);
470                 break;
471             default:
472                 printf("uiomove: Bad rw = %d\n", rw);
473                 return -EINVAL;
474             }
475             break;
476         default:
477             printf("uiomove: Bad seg = %d\n", uiop->uio_seg);
478             return -EINVAL;
479         }
480
481         dp += count;
482         length -= count;
483         iov->iov_base += count;
484         iov->iov_len -= count;
485         uiop->uio_offset += count;
486         uiop->uio_resid -= count;
487     }
488     return 0;
489 }
490