7268df633b154b01aefbe5022bdc3bc94e6434c5
[openafs-wiki.git] / AFSLore / AdminFAQ.mdwn
1 ## <a name="3  AFS administration"></a> 3 AFS administration
2
3 The Administration Section of the [[AFSFrequentlyAskedQuestions]].
4
5 - [[PreambleFAQ]]
6 - [[GeneralFAQ]]
7 - [[UsageFAQ]]
8
9 <div>
10   <ul>
11     <li><a href="#3  AFS administration"> 3 AFS administration</a><ul>
12         <li><a href="#3.01  Is there a version of xdm"> 3.01 Is there a version of xdm available with AFS authentication?</a></li>
13         <li><a href="#3.02  Is there a version of xloc"> 3.02 Is there a version of xlock available with AFS authentication?</a></li>
14         <li><a href="#3.03  What is /afs/@cell?"> 3.03 What is /afs/@cell?</a></li>
15         <li><a href="#3.04  Given that AFS data is loc"> 3.04 Given that AFS data is location independent, how does an AFS client determine which server houses the data its user is attempting to access?</a></li>
16         <li><a href="#3.05  How does AFS maintain cons"> 3.05 How does AFS maintain consistency on read-write files?</a></li>
17         <li><a href="#3.06  Which protocols does AFS u"> 3.06 Which protocols does AFS use?</a></li>
18         <li><a href="#3.07  Which TCP/IP ports and pro"> 3.07 Which TCP/IP ports and protocols do I need to enable in order to operate AFS through my Internet firewall?</a></li>
19         <li><a href="#3.08  Are setuid programs execut"> 3.08 Are setuid programs executable across AFS cell boundaries?</a></li>
20         <li><a href="#3.09  How can I run daemons with"> 3.09 How can I run daemons with tokens that do not expire?</a></li>
21         <li><a href="#3.10  Can I check my user's pass"> 3.10 Can I check my user's passwords for security purposes?</a></li>
22         <li><a href="#3.11  Is there a way to automati"> 3.11 Is there a way to automatically balance disk usage across fileservers?</a></li>
23         <li><a href="#3.12  Can I shutdown an AFS file"> 3.12 Can I shutdown an AFS fileserver without affecting users?</a></li>
24         <li><a href="#3.13  How can I set up mail deli"> 3.13 How can I set up mail delivery to users with $HOMEs in AFS?</a></li>
25         <li><a href="#3.14  Should I replicate a _Read"> 3.14 Should I replicate a ReadOnly volume on the same partition and server as the ReadWrite volume?</a></li>
26         <li><a href="#3.15  Should I start AFS before"> 3.15 Should I start AFS before NFS in /etc/inittab?</a></li>
27         <li><a href="#3.16  Will AFS run on a multi-ho"> 3.16 Will AFS run on a multi-homed fileserver?</a></li>
28         <li><a href="#3.17  Can I replicate my user's"> 3.17 Can I replicate my user's home directory AFS volumes?</a></li>
29         <li><a href="#3.18  What is the Andrew Benchma"> 3.18 What is the Andrew Benchmark?</a></li>
30         <li><a href="#3.19  Where can I find the Andre"> 3.19 Where can I find the Andrew Benchmark?</a></li>
31         <li><a href="#3.20  Is there a version of HP V"> 3.20 Is there a version of HP VUE login with AFS authentication?</a></li>
32         <li><a href="#3.21  How can I list which clien"> 3.21 How can I list which clients have cached files from a server?</a></li>
33         <li><a href="#3.22  Do Backup volumes require"> 3.22 Do Backup volumes require as much space as ReadWrite volumes?</a></li>
34         <li><a href="#3.23  Should I run timed on my A"> 3.23 Should I run timed on my AFS client?</a></li>
35         <li><a href="#3.24  Why should I keep /usr/vic"> 3.24 Why should I keep /usr/vice/etc/CellServDB current?</a></li>
36         <li><a href="#3.25  How can I keep /usr/vice/e"> 3.25 How can I keep /usr/vice/etc/CellServDB current?</a></li>
37         <li><a href="#3.26  How can I compute a list o"> 3.26 How can I compute a list of AFS fileservers?</a></li>
38         <li><a href="#3.27  How can I set up anonymous"> 3.27 How can I set up anonymous FTP login to access /afs?</a></li>
39         <li><a href="#3.28 Is the data sent over the n"> 3.28 Is the data sent over the network encrypted in AFS ?</a></li>
40         <li><a href="#3.29 What underlying filesystems"> 3.29 What underlying filesystems can I use for AFS ?</a></li>
41         <li><a href="#3.30 Compiling _OpenAFS"> 3.30 Compiling OpenAFS</a></li>
42         <li><a href="#3.31 Upgrading _OpenAFS"> 3.31 Upgrading OpenAFS</a></li>
43         <li><a href="#3.32 Debugging _OpenAFS"> 3.32 Debugging OpenAFS</a></li>
44         <li><a href="#3.33 Tuning client cache for hug"> 3.33 Tuning client cache for huge data</a></li>
45         <li><a href="#3.34 Settting up PAM with AFS"> 3.34 Settting up PAM with AFS</a></li>
46         <li><a href="#3.35 Setting up AFS key in KDC a"> 3.35 Setting up AFS key in KDC and KeyFile</a></li>
47         <li><a href="#3.36 Obtaining and getting asetk"> 3.36 Obtaining and getting asetkey compiled</a></li>
48         <li><a href="#3.37 afs_krb_get_lrealm() using"> 3.37 afs_krb_get_lrealm() using /usr/afs/etc/krb.conf</a></li>
49         <li><a href="#3.38 Moving from kaserver to Hei"> 3.38 Moving from kaserver to Heimdal KDC</a></li>
50         <li><a href="#3.39 Moving from KTH-KRB4 to Hei"> 3.39 Moving from KTH-KRB4 to Heimdal KDC</a></li>
51       </ul>
52     </li>
53   </ul>
54 </div>
55
56 - [[ResourcesFAQ]]
57 - [[AboutTheFAQ]]
58 - [[FurtherReading]]
59
60 ### <a name="3.01  Is there a version of xdm"></a><a name="3.01  Is there a version of xdm "></a> 3.01 Is there a version of xdm available with AFS authentication?
61
62 Yes, xdm can be found in:
63
64 <file:///afs/transarc.com/public/afs-contrib/tools/xdm> <ftp://ftp.transarc.com/pub/afs-contrib/tools/xdm/MANIFEST>
65
66 ### <a name="3.02  Is there a version of xloc"></a> 3.02 Is there a version of xlock available with AFS authentication?
67
68 Yes, xlock can be found in:
69
70 <file:///afs/transarc.com/public/afs-contrib/tools/xlock> <ftp://ftp.transarc.com/pub/afs-contrib/tools/xlock/MANIFEST>
71
72 ### <a name="3.03  What is /afs/@cell?"></a> 3.03 What is /afs/@cell?
73
74 It is a symbolic link pointing at /afs/$your\_cell\_name.
75
76 NB, @cell is not something that is provided by AFS. You may decide it is useful in your cell and wish to create it yourself.
77
78 /afs/@cell is useful because:
79
80 - If you look after more than one AFS cell, you could create the link in each cell then set your PATH as:
81   - PATH=$PATH:/afs/@cell/@sys/local/bin
82
83 - For most cells, it shortens the path names to be typed in thus reducing typos and saving time.
84
85 A disadvantage of using this convention is that when you cd into /afs/@cell then type "pwd" you see "/afs/@cell" instead of the full name of your cell. This may appear confusing if a user wants to tell a user in another cell the pathname to a file.
86
87 You could create your own /afs/@cell with the following:
88
89     #/bin/ksh -
90     # author: mpb
91     [ -L /afs/@cell ] && echo We already have @cell! && exit
92     cell=$(cat /usr/vice/etc/ThisCell)
93     cd /afs/.${cell} && fs mkm temp root.afs
94     cd temp
95     ln -s /afs/${cell} @cell
96     ln -s /afs/.${cell} .@cell            # .@cell for RW path
97     cd /afs/.${cell} && fs rmm temp
98     vos release root.afs; fs checkv
99
100 <http://www-archive.stanford.edu/lists/info-afs/hyper95/0298.html>
101
102 ### <a name="3.04  Given that AFS data is loc"></a> 3.04 Given that AFS data is location independent, how does an AFS client determine which server houses the data its user is attempting to access?
103
104 The Volume Location Database (VLDB) is stored on AFS Database Servers and is ideally replicated across 3 or more Database Server machines. Replication of the Database ensures high availability and load balances the requests for the data. The VLDB maintains information regarding the current physical location of all volume data (files and directories) in the cell, including the IP address of the [[FileServer]], and the name of the disk partition the data is stored on.
105
106 A list of a cell's Database Servers is stored on the local disk of each AFS Client machine as: /usr/vice/etc/CellServDB
107
108 The Database Servers also house the Kerberos Authentication Database (encrypted user and server passwords), the Protection Database (user UID and protection group information) and the Backup Database (used by System Administrators to backup AFS file data to tape).
109
110 ### <a name="3.05  How does AFS maintain cons"></a> 3.05 How does AFS maintain consistency on read-write files?
111
112 AFS uses a mechanism called "callback".
113
114 Callback is a promise from the fileserver that the cache version of a file/directory is up-to-date. It is established by the fileserver with the caching of a file.
115
116 When a file is modified the fileserver breaks the callback. When the user accesses the file again the Cache Manager fetches a new copy if the callback has been broken.
117
118 The following paragraphs describe AFS callback mechanism in more detail:
119
120 If I open() fileA and start reading, and you then open() fileA, write() a change **\*\*and close() or fsync()\*\*** the file to get your changes back to the server - at the time the server accepts and writes your changes to the appropriate location on the server disk, the server also breaks callbacks to all clients to which it issued a copy of fileA.
121
122 So my client receives a message to break the callback on fileA, which it dutifully does. But my application (editor, spreadsheet, whatever I'm using to read fileA) is still running, and doesn't really care that the callback has been broken.
123
124 When something causes the application to read() more of the file the read() system call executes AFS cache manager code via the VFS switch, which does check the callback and therefore gets new copies of the data.
125
126 Of course, the application may not re-read data that it has already read, but that would also be the case if you were both using the same host. So, for both AFS and local files, I may not see your changes.
127
128 Now if I exit the application and start it again, or if the application does another open() on the file, then I will see the changes you've made.
129
130 This information tends to cause tremendous heartache and discontent - but unnecessarily so. People imagine rampant synchronization problems. In practice this rarely happens and in those rare instances, the data in question is typically not critical enough to cause real problems or crashing and burning of applications. Since 1985, we've found that the synchronization algorithm has been more than adequate in practice - but people still like to worry!
131
132 The source of worry is that, if I make changes to a file from my workstation, your workstation is not guaranteed to be notified until I close or fsync the file, at which point AFS guarantees that your workstation will be notified. This is a significant departure from NFS, in which no guarantees are provided.
133
134 Partially because of the worry factor and largely because of Posix, this will change in DFS. DFS synchronization semantics are identical to local file system synchronization.
135
136 [ DFS is the Distributed File System which is part of the Distributed ] [ Computing Environment (DCE). ]
137
138 ### <a name="3.06  Which protocols does AFS u"></a> 3.06 Which protocols does AFS use?
139
140 AFS may be thought of as a collection of protocols and software processes, nested one on top of the other. The constant interaction between and within these levels makes AFS a very sophisticated software system.
141
142 At the lowest level is the UDP protocol, which is part of TCP/IP. UDP is the connection to the actual network wire. The next protocol level is the remote procedure call (RPC). In general, RPCs allow the developer to build applications using the client/server model, hiding the underlying networking mechanisms. AFS uses Rx, an RPC protocol developed specifically for AFS during its development phase at Carnegie Mellon University.
143
144 Above the RPC is a series of server processes and interfaces that all use Rx for communication between machines. Fileserver, volserver, upserver, upclient, and bosserver are server processes that export RPC interfaces to allow their user interface commands to request actions and get information. For example, a bos status  command will examine the bos server process on the indicated file server machine.
145
146 Database servers use ubik, a replicated database mechanism which is implemented using RPC. Ubik guarantees that the copies of AFS databases of multiple server machines remain consistent. It provides an application programming interface (API) for database reads and writes, and uses RPCs to keep the database synchronized. The database server processes, vlserver, kaserver, and ptserver, reside above ubik. These processes export an RPC interface which allows user commands to control their operation. For instance, the pts command is used to communicate with the ptserver, while the command klog uses the kaserver's RPC interface.
147
148 Some application programs are quite complex, and draw on RPC interfaces for communication with an assortment of processes. Scout utilizes the RPC interface to file server processes to display and monitor the status of file servers. The uss command interfaces with kaserver, ptserver, volserver and vlserver to create new user accounts.
149
150 The Cache Manager also exports an RPC interface. This interface is used principally by file server machines to break callbacks. It can also be used to obtain Cache Manager status information. The program cmdebug shows the status of a Cache Manager using this interface.
151
152 For additional information, Section 1.5 of the AFS System Administrator's Guide and the April 1990 Cache Update contain more information on ubik. Udebug information and short descriptions of all debugging tools were included in the January 1991 Cache Update. Future issues will discuss other debugging tools in more detail.
153
154 [ source: <ftp://ftp.transarc.com/pub/afsug/newsletter/apr91> ] [ Copyright 1991 Transarc Corporation ]
155
156 ### <a name="3.07  Which TCP/IP ports and pro"></a> 3.07 Which TCP/IP ports and protocols do I need to enable in order to operate AFS through my Internet firewall?
157
158 Assuming you have already taken care of nameserving, you may wish to use an Internet timeserver for Network Time Protocol [[[NTP|Main/FurtherReading#NTP]]] and the question about [[timed|Main/WebHome#NTP]]:
159
160 ntp 123/udp
161
162 A list of NTP servers is available via anonymous FTP from:
163
164 - <http://www.eecis.udel.edu/~mills/ntp/servers.html>
165
166 For further details on NTP see: <http://www.eecis.udel.edu/~ntp/>
167
168 For a "minimal" AFS service which does not allow inbound or outbound klog:
169
170        cachemanager    4711/udp (only if you use the arla-client instead of OpenAFS)
171        fileserver      7000/udp
172        cachemanager    7001/udp
173        ptserver        7002/udp
174        vlserver        7003/udp
175        kaserver        7004/udp
176        volserver       7005/udp
177        reserved        7006/udp
178        bosserver       7007/udp
179
180 (Ports in the 7020-7029 range are used by the AFS backup system, and won't be needed by external clients performing simple file accesses.)
181
182 Additionally, for "klog" to work through the firewall you need to allow inbound and outbound UDP on ports &gt;1024 (probably 1024&lt;port&lt;2048 would suffice depending on the number of simultaneous klogs).
183
184 See also: <http://www-archive.stanford.edu/lists/info-afs/hyper95/0874.html>
185
186 ### <a name="3.08  Are setuid programs execut"></a> 3.08 Are setuid programs executable across AFS cell boundaries?
187
188 By default, the setuid bit is ignored but the program may be run (without setuid privilege).
189
190 It is possible to configure an AFS client to honour the setuid bit. This is achieved by root running:
191
192        root@toontown # fs setcell -cell $cellname -suid
193
194 (where $cellname is the name of the foreign cell. Use with care!).
195
196 NB: making a program setuid (or setgid) in AFS does **not** mean that the program will get AFS permissions of a user or group. To become AFS authenticated, you have to klog. If you are not authenticated, AFS treats you as "system:anyuser".
197
198 ### <a name="3.09  How can I run daemons with"></a> 3.09 How can I run daemons with tokens that do not expire?
199
200 It is not a good idea to run with tokens that do not expire because this would weaken one of the security features of Kerberos.
201
202 A better approach is to re-authenticate just before the token expires.
203
204 There are two examples of this that have been contributed to afs-contrib. The first is "reauth":
205
206 - <file:///afs/transarc.com/public/afs-contrib/tools/reauth/>
207 - <ftp://ftp.transarc.com/pub/afs-contrib/tools/reauth/MANIFEST>
208 - <ftp://ftp.andrew.cmu.edu/pub/AFS-Tools/reauth-0.0.5.tar.gz>
209
210 The second is "lat":
211
212 <file:///afs/transarc.com/public/afs-contrib/pointers/UMich-lat-authenticated-batch-jobs> <ftp://ftp.transarc.com/pub/afs-contrib/pointers/UMich-lat-authenticated-batch-jobs>
213
214 Another collection of tools was [mentioned](https://lists.openafs.org/pipermail/openafs-info/2002-October/006353.html) by [[DanielClark]]:
215
216 Another option is [OpenPBS](http://www.openpbs.org/) and [Password Storage and Retrieval](http://www.lam-mpi.org/software/psr/) (PSR), where you encrypt your AFS password with a public key and put it in your home directory, and trusted machine(s) which have the private key on local disk then decrypt your password and run your job. MIT uses a variant of this (e.g. [a](http://web.mit.edu/longjobs/www/) &amp; [b](http://mit.edu/longjobs-dev/notebook/)) that uses their own code (see [longjobs documentation](http://web.mit.edu/longjobs-dev/doc/netsec.txt) sections III and IV) instead of PSR.
217
218 ### <a name="3.10  Can I check my user&#39;s pass"></a> 3.10 Can I check my user's passwords for security purposes?
219
220 Yes. Alec Muffett's Crack tool (at version 4.1f) has been converted to work on the Transarc kaserver database. This modified Crack (AFS Crack) is available via anonymous ftp from:
221
222 - <ftp://export.acs.cmu.edu/pub/crack.tar.Z>
223 - <ftp://ftp.andrew.cmu.edu/pub/AFS-Tools/crack.tar.Z>
224
225 and is known to work on: pmax\_\* sun4\*\_\* hp700\_\* rs\_aix\* next\_\*
226
227 It uses the file /usr/afs/db/kaserver.DB0, which is the database on the kaserver machine that contains the encrypted passwords. As a bonus, AFS Crack is usually two to three orders of magnitude faster than the standard Crack since there is no concept of salting in a Kerberos database.
228
229 On a normal UNIX /etc/passwd file, each password can have been encrypted around 4096 (2^12) different saltings of the crypt(3) algorithm, so for a large number of users it is easy to see that a potentially large (up to 4095) number of seperate encryptions of each word checked has been avoided.
230
231 Author: Dan Lovinger Contact: Derrick J. Brashear &lt;shadow+@andrew.cmu.edu&gt;
232
233 <table border="1" cellpadding="0" cellspacing="0">
234   <tr>
235     <td> Note: </td>
236     <td> AFS Crack does not work for MIT Kerberos Databases. The author is willing to give general guidance to someone interested in doing the (probably minimal) amount of work to port it to do MIT Kerberos. The author does not have access to a MIT Kerberos server to do this. </td>
237   </tr>
238 </table>
239
240 ### <a name="3.11  Is there a way to automati"></a> 3.11 Is there a way to automatically balance disk usage across fileservers?
241
242 Yes. There is a tool, balance, which does exactly this. It can be retrieved via anonymous ftp from:
243
244 - <ftp://ftp.andrew.cmu.edu/pub/AFS-Tools/balance-1.1b.tar.gz>
245
246 Actually, it is possible to write arbitrary balancing algorithms for this tool. The default set of "agents" provided for the current version of balance balance by usage, # of volumes, and activity per week, the latter currently requiring a source patch to the AFS volserver. Balance is highly configurable.
247
248 Author: Dan Lovinger Contact: Derrick Brashear &lt;shadow+@andrew.cmu.edu&gt;
249
250 ### <a name="3.12  Can I shutdown an AFS file"></a> 3.12 Can I shutdown an AFS fileserver without affecting users?
251
252 Yes, this is an example of the flexibility you have in managing AFS.
253
254 Before attempting to shutdown an AFS fileserver you have to make some arrangements that any services that were being provided are moved to another AFS fileserver:
255
256 1. Move all AFS volumes to another fileserver. (Check you have the space!) This can be done "live" while users are actively using files in those volumes with no detrimental effects.
257
258 1. Make sure that critical services have been replicated on one (or more) other fileserver(s). Such services include:
259   - kaserver - Kerberos Authentication server
260   - vlserver - Volume Location server
261   - ptserver - Protection server
262   - buserver - Backup server
263
264 It is simple to test this before the real shutdown by issuing:
265
266        bos shutdown $server $service
267
268        where: $server is the name of the server to be shutdown
269          and  $service is one (or all) of: kaserver vlserver ptserver buserver
270
271 Other points to bear in mind:
272
273 - "vos remove" any RO volumes on the server to be shutdown. Create corresponding RO volumes on the 2nd fileserver after moving the RW. There are two reasons for this:
274   1. An RO on the same partition ("cheap replica") requires less space than a full-copy RO.
275   2. Because AFS always accesses RO volumes in preference to RW, traffic will be directed to the RO and therefore quiesce the load on the fileserver to be shutdown.
276
277 - If the system to be shutdown has the lowest IP address there may be a brief delay in authenticating because of timeout experienced before contacting a second kaserver.
278
279 ### <a name="3.13  How can I set up mail deli"></a> 3.13 How can I set up mail delivery to users with $HOMEs in AFS?
280
281 There are many ways to do this. Here, only two methods are considered:
282
283 Method 1: deliver into local filestore
284
285 This is the simplest to implement. Set up your mail delivery to append mail to /var/spool/mail/$USER on one mailserver host. The mailserver is an AFS client so users draw their mail out of local filestore into their AFS $HOME (eg: inc).
286
287 Note that if you expect your (AFS unauthenticated) mail delivery program to be able to process .forward files in AFS $HOMEs then you need to add "system:anyuser rl" to each $HOMEs ACL.
288
289 The advantages are:
290
291 - Simple to implement and maintain.
292 - No need to authenticate into AFS.
293
294 The drawbacks are:
295
296 - It doesn't scale very well.
297 - Users have to login to the mailserver to access their new mail.
298 - Probably less secure than having your mailbox in AFS.
299 - System administrator has to manage space in /var/spool/mail.
300
301 Method 2: deliver into AFS
302
303 This takes a little more setting up than the first method.
304
305 First, you must have your mail delivery daemon AFS authenticated (probably as "postman"). The reauth example in afs-contrib shows how a daemon can renew its token. You will also need to setup the daemon startup soon after boot time to klog (see the -pipe option).
306
307 Second, you need to set up the ACLs so that "postman" has lookup rights down to the user's $HOME and "lik" on $HOME/Mail.
308
309 Advantages:
310
311 - Scales better than first method.
312 - Delivers to user's $HOME in AFS giving location independence.
313 - Probably more secure than first method.
314 - User responsible for space used by mail.
315
316 Disadvantages:
317
318 - More complicated to set up.
319 - Need to correctly set ACLs down to $HOME/Mail for every user.
320 - Probably need to store postman's password in a file so that the mail delivery daemon can klog after boot time. This may be OK if the daemon runs on a relatively secure host.
321
322 An example of how to do this for IBM RISC System/6000 is auth-sendmail. A beta test version of auth-sendmail can be found in:
323
324 <file:///afs/transarc.com/public/afs-contrib/doc/faq/auth-sendmail.tar.Z> <ftp://ftp.transarc.com/pub/afs-contrib/doc/faq/auth-sendmail.tar.Z>
325
326 ### <a name="3.14  Should I replicate a _Read"></a> 3.14 Should I replicate a [[ReadOnly]] volume on the same partition and server as the [[ReadWrite]] volume?
327
328 Yes, Absolutely! It improves the robustness of your served volumes.
329
330 If [[ReadOnly]] volumes exist (note use of term **exist** rather than **are available**), Cache Managers will **never** utilize the [[ReadWrite]] version of the volume. The only way to access the RW volume is via the "dot" path (or by special mounting).
331
332 This means if **all** RO copies are on dead servers, are offline, are behind a network partition, etc, then clients will not be able to get the data, even if the RW version of the volume is healthy, on a healthy server and in a healthy network.
333
334 However, you are **very** strongly encouraged to keep one RO copy of a volume on the **same server and partition** as the RW. There are two reasons for this:
335
336 1. The RO that is on the same server and partition as the RW is a clone (just a copy of the header - not a full copy of each file). It therefore is very small, but provides access to the same set of files that all other (full copy) [[ReadOnly]] volume do. Transarc trainers refer to this as the "cheap replica".
337 2. To prevent the frustration that occurs when all your ROs are unavailable but a perfectly healthy RW was accessible but not used.
338
339 If you keep a "cheap replica", then by definition, if the RW is available, one of the RO's is also available, and clients will utilize that site.
340
341 ### <a name="3.15  Should I start AFS before"></a><a name="3.15  Should I start AFS before "></a> 3.15 Should I start AFS before NFS in /etc/inittab?
342
343 Yes, it is possible to run both AFS and NFS on the same system but you should start AFS first.
344
345 In IBM's AIX 3.2, your /etc/inittab would contain:
346
347     rcafs:2:wait:/etc/rc.afs > /dev/console 2>&1 # Start AFS daemons
348     rcnfs:2:wait:/etc/rc.nfs > /dev/console 2>&1 # Start NFS daemons
349
350 With AIX, you need to load NFS kernel extensions before the AFS KEs in /etc/rc.afs like this:
351
352     #!/bin/sh -
353     # example /etc/rc.afs for an AFS fileserver running AIX 3.2
354     #
355     echo "Installing NFS kernel extensions (for AFS+NFS)"
356     /etc/gfsinstall -a /usr/lib/drivers/nfs.ext
357     echo "Installing AFS kernel extensions..."
358     D=/usr/afs/bin/dkload
359     ${D}/cfgexport -a ${D}/export.ext
360     ${D}/cfgafs    -a ${D}/afs.ext
361     /usr/afs/bin/bosserver &
362
363 ### <a name="3.16  Will AFS run on a multi-ho"></a> 3.16 Will AFS run on a multi-homed fileserver?
364
365 (multi-homed = host has more than one network interface.)
366
367 Yes, it will. However, AFS was designed for hosts with a single IP address. There can be problems if you have one host name being resolved to several IP addresses.
368
369 Transarc suggest designating unique hostnames for each network interface. For example, a host called "spot" has two tokenring and one ethernet interfaces: spot-tr0, spot-tr1, spot-en0. Then, select which interface will be used for AFS and use that hostname in the [[CellServDB]] file (eg: spot-tr0).
370
371 You also have to remember to use the AFS interface name with any AFS commands that require a server name (eg: vos listvol spot-tr0).
372
373 There is a more detailed discussion of this in the August 1993 issue of "Cache Update" (see: <ftp://ftp.transarc.com/pub/afsug/newsletter/aug93>).
374
375 The simplest way of dealing with this is to make your AFS fileservers single-homed (eg only use one network interface).
376
377 At release 3.4 of AFS, it is possible to have multi-homed fileservers (but _not_ multi-homed database servers).
378
379 ### <a name="3.17  Can I replicate my user&#39;s"></a><a name="3.17  Can I replicate my user&#39;s "></a> 3.17 Can I replicate my user's home directory AFS volumes?
380
381 No.
382
383 Users with $HOMEs in /afs normally have an AFS [[ReadWrite]] volume mounted in their home directory.
384
385 You can replicate a RW volume but only as a [[ReadOnly]] volume and there can only be one instance of a [[ReadWrite]] volume.
386
387 In theory, you could have RO copies of a user's RW volume on a second server but in practice this won't work for the following reasons:
388
389     a) AFS has built-in bias to always access the RO copy of a RW volume.
390        So the user would have a ReadOnly $HOME which is not too useful!
391
392     b) Even if a) was not true you would have to arrange frequent
393        synchronisation of the RO copy with the RW volume (for example:
394        "vos release user.fred; fs checkv") and this would have to be
395        done for all such user volumes.
396
397     c) Presumably, the idea of replicating is to recover the $HOME
398        in the event of a server crash. Even if a) and b) were not
399        problems consider what you might have to do to recover a $HOME:
400
401        1) Create a new RW volume for the user on the second server
402           (perhaps named "user.fred.2").
403
404        2) Now, where do you mount it?
405
406           The existing mountpoint cannot be used because it already has
407           the ReadOnly copy of the original volume mounted there.
408
409           Let's choose: /afs/MyCell/user/fred.2
410
411        3) Copy data from the RO of the original into the new RW volume
412           user.fred.2
413
414        4) Change the user's entry in the password file for the new $HOME:
415           /afs/MyCell/user/fred.2
416
417        You would have to attempt steps 1 to 4 for every user who had
418        their RW volume on the crashed server. By the time you had done
419        all of this, the crashed server would probably have rebooted.
420
421        The bottom line is: you cannot replicate $HOMEs across servers.
422
423 ### <a name="3.18  What is the Andrew Benchma"></a> 3.18 What is the Andrew Benchmark?
424
425 "It is a script that operates on a collection of files constituting an application program. The operations are intended to represent typical actions of an average user. The input to the benchmark is a source tree of about 70 files. The files total about 200 KB in size. The benchmark consists of five distinct phases:
426
427       I MakeDir - Construct a target subtree that is identical to the
428                   source subtree.
429      II Copy    - Copy every file from the source subtree to the target subtree.
430     III ScanDir - Traverse the target subtree and examine the status
431                   of every file in it.
432      IV ReadAll - Scan every byte of every file in the target subtree.
433       V Make    - Complete and link all files in the target subtree."
434
435 Source: <file:///afs/transarc.com/public/afs-contrib/doc/benchmark/Andrew.Benchmark.ps> <ftp://ftp.transarc.com/pub/afs-contrib/doc/benchmark/Andrew.Benchmark.ps>
436
437 ### <a name="3.19  Where can I find the Andre"></a> 3.19 Where can I find the Andrew Benchmark?
438
439 From Daniel Joseph Barnhart Clark's [message](http://lists.openafs.org/pipermail/openafs-info/2004-April/012942.html):
440
441 It's linked to from <http://www.citi.umich.edu/projects/linux-scalability/tools.html>; CITI also has some useful mods at <http://www.citi.umich.edu/projects/nfs-perf/results/cmarion/>.
442
443 ### <a name="3.20  Is there a version of HP V"></a> 3.20 Is there a version of HP VUE login with AFS authentication?
444
445 Yes, the availability of this is described in: <file:///afs/transarc.com/public/afs-contrib/pointers/HP-VUElogin.txt> <ftp://ftp.transarc.com/pub/afs-contrib/pointers/HP-VUElogin.txt>
446
447 If you don't have access to the above, please contact Rajeev Pandey of Hewlett Packard whose email address is &lt;rpandey@cv.hp.com&gt;.
448
449 ### <a name="3.21  How can I list which clien"></a> 3.21 How can I list which clients have cached files from a server?
450
451 By using the following script:
452
453     #!/bin/ksh -
454     #
455     # NAME          afsclients
456     # AUTHOR        Rainer Toebbicke  <rtb@dxcern.cern.ch>
457     # DATE          June 1994
458     # PURPOSE       Display AFS clients which have grabbed files from a server
459
460     if [ $# = 0 ]; then
461             echo "Usage: $0 <afs_server 1> ... <afsserver n>"
462             exit 1
463     fi
464     for n; do
465             /usr/afsws/etc/rxdebug -servers $n -allconn
466     done | grep '^Connection' | \
467     while  read x y z ipaddr rest; do echo $ipaddr; done | sort -u |
468     while read ipaddr; do
469             ipaddr=${ipaddr%%,}
470             n="`nslookup $ipaddr`"
471             n="${n##*Name: }"
472             n="${n%%Address:*}"
473             n="${n##*([ ])}"
474             n="${n%?}"
475             echo "$n ($ipaddr)"
476     done
477
478 ### <a name="3.22  Do Backup volumes require"></a><a name="3.22  Do Backup volumes require "></a> 3.22 Do Backup volumes require as much space as [[ReadWrite]] volumes?
479
480 No.
481
482 The technique used is to create a new volume, where every file in the RW copy is pointed to by the new backup volume. The files don't exist in the BK, only in the RW volume. The backup volume therefore takes up very little space.
483
484 If the user now starts modifying data, the old copy must not be destroyed.
485
486 There is a Copy-On-Write bit in the vnode - if the fileserver writes to a vnode with the bit on it allocates a new vnode for the data and turns off the COW bit. The BK volume hangs onto the old data, and the RW volume slowly splits itself away over time.
487
488 The BK volume is re-synchronised with the RW next time a "vos backupsys" is run.
489
490 The space needed for the BK volume is directly related to the size of all files changed in the RW between runs of "vos backupsys".
491
492 ### <a name="3.23  Should I run timed on my A"></a> 3.23 Should I run timed on my AFS client?
493
494 No.
495
496 <a name="NTP"></a> The AFS Servers make use of NTP [[[NTP|Main/FurtherReading#NTP]]] to synchronise time each other and typically with one or more external NTP servers. By default, clients synchronize their time with one of the servers in the local cell. Thus all the machines participating in the AFS cell have an accurate view of the time.
497
498 For further details on NTP see: <http://www.eecis.udel.edu/~ntp/>. The latest version is 4.1, dated August 2001, which is **much** more recent that the version packaged with Transarc AFS.
499
500 A list of NTP servers is available via anonymous FTP from:
501
502 - <http://www.eecis.udel.edu/~mills/ntp/servers.html>
503
504 The default time setting behavior of the AFS client can be disabled by specifying the `-nosettime` argument to [afsd](http://www.transarc.ibm.com/Library/documentation/afs/3.5/unix/cmd/cmd53.htm). This is recommended for AFS servers which are also configured as clients (because servers normally run NTP daemons) and for clients that run NTP.
505
506 ### <a name="3.24  Why should I keep /usr/vic"></a> 3.24 Why should I keep /usr/vice/etc/CellServDB current?
507
508 On AFS clients, /usr/vice/etc/CellservDB, defines the cells and (their servers) that can be accessed via /afs.
509
510 Over time, site details change: servers are added/removed or moved onto new network addresses. New sites appear.
511
512 In order to keep up-to-date with such changes, the [[CellservDB]] file on each AFS client should be kept consistent with some master copy (at your site).
513
514 As well as updating [[CellservDB]], your AFS administrator should ensure that new cells are mounted in your cell's root.afs volume.
515
516 If a cell is added to [[CellServDB]] then the **client** must either be restared or you must the AFS command "fs newcell -cell .. -servers ... ...".
517
518 ### <a name="3.25  How can I keep /usr/vice/e"></a> 3.25 How can I keep /usr/vice/etc/CellServDB current?
519
520 Do a daily copy from a master source and update the AFS kernel sitelist.
521
522 One good master source is the grand.central.org [[CellServDB]], available from <http://grand.central.org/dl/cellservdb/CellServDB> or <file:/afs/openafs.org/service/CellServDB> (N.B. update to /afs/grand.central.org path when available). You can send updates for this to <cellservdb@central.org>.
523
524 The client [[CellServDB]] file must not reside under /afs and is best located in local filespace.
525
526 Simply updating a client [[CellServDB]] file is not enough. You also need to update the AFS kernel sitelist by either: 1 rebooting the client or 1 running "fs newcell $cell\_name $server\_list" for each site in the [[CellServDB]] file.
527
528 A script to update the AFS kernel sitelist on a running system is newCellServDB.
529
530 <file:///afs/ece.cmu.edu/usr/awk/Public/newCellServDB> <ftp://ftp.ece.cmu.edu/pub/afs-tools/newCellServDB>
531
532 One way to distribute [[CellServDB]] is to have a root cron job on each AFS client copy the file then run newCellServDB.
533
534 Example:
535
536     #!/bin/ksh -
537     #
538     # NAME       syncCellServDB
539     # PURPOSE    Update local CellServDB file and update AFS kernel sitelist
540     # USAGE      run by daily root cron job eg:
541     #                    0 3 * * * /usr/local/sbin/syncCellServDB
542     #
543     # NOTE       "@cell" is a symbolic link to /afs/$this_cell_name
544
545     src=/afs/@cell/service/etc/CellServDB
546     dst=/usr/vice/etc/CellServDB
547     xec=/usr/local/sbin/newCellServDB
548     log=/var/log/syncCellServDB
549
550     if [ -s ${src} ]; then
551             if [ ${src} -nt ${dst} ]; then
552                     cp $dst ${dst}- && cp $src $dst && $xec 2>&1 >$log
553             else
554                     echo "master copy no newer: no processing to be done" >$log
555             fi
556     else
557             echo "zero length file: ${src}" >&2
558     fi
559
560 ### <a name="3.26  How can I compute a list o"></a> 3.26 How can I compute a list of AFS fileservers?
561
562 Here is a Bourne shell command to do it (it will work in GNU bash and the Korn shell, too):
563
564        stimpy@nick $ vos listvldb -cell `cat /usr/vice/etc/ThisCell` \\
565                      | awk '(/server/) {print $2}' | sort -u
566
567 ### <a name="3.27  How can I set up anonymous"></a> 3.27 How can I set up anonymous FTP login to access /afs?
568
569 The easiest way on a primarily "normal" machine (where you don't want to have everything in AFS) is to actually mount root.cell under ~ftp, and then symlink /afs to ~ftp/afs or whatever. It's as simple as changing the mountpoint in /usr/vice/etc/cacheinfo and restarting afsd.
570
571 Note that when you do this, anon ftp users can go anywhere system:anyuser can (or worse, if you're using IP-based ACLs and the ftp host is PTS groups). The only "polite" solution I've arrived at is to have the ftp host machine run a minimal [[CellServDB]] and police my ACLs tightly.
572
573 Alternatively, you can make ~ftp an AFS volume and just mount whatever you need under that - this works well if you can keep everything in AFS, and you don't have the same problems with anonymous "escapes" into /afs.
574
575 Unless you need to do authenticating ftp, you are _strongly_ recommended using wu-ftpdv2.4 (or better).
576
577 ### <a name="3.28 Is the data sent over the n"></a> 3.28 Is the data sent over the network encrypted in AFS ?
578
579 There is still no easy way to do this in Transarc AFS, but [[OpenAFS]] now has a "fs" subcommand to turn on encryption of regular file data sent and received by a client. This is a per client setting that persist until reboot. No server actions are needed to support this change. The syntax is:
580
581 - `fs setcrypt on`
582 - `fs setcrypt off`
583 - `fs getcrypt`
584
585 Note that this only encrypts network traffic between the client and server. The data on the server's disk is not encrypted nor is the data in the client's disk cache. The encryption algorithm used is [fcrypt](http://tedanderson.home.mindspring.com/fcrypt-paper.txt), which is a DES variant.
586
587 Getting encryption enabled by default:
588
589 - [[RedHat]] Linux: ([src](https://lists.openafs.org/pipermail/openafs-info/2002-July/005085.html)) change the last line of /etc/sysconfig/afs to `AFS_POST_INIT="/usr/bin/fs setcrypt on"`
590 - Windows ([src](https://lists.openafs.org/pipermail/openafs-info/2003-June/009416.html)) set the following registry value named `SecurityLevel` under `HKLM\SYSTEM\CurrentControlSet\Services\TransarcAFSDaemon\Parameters` to 2.
591
592 I have not tested either of these procedures. -- [[TedAnderson]] - 05 Jun 2003
593
594 ### <a name="3.29 What underlying filesystems"></a> 3.29 What underlying filesystems can I use for AFS ?
595
596 See also [[SupportedConfigurations]].
597
598 You need to distinguish between the filesystem used by the file server to store the actual AFS data (by convention in /vicep?) and the filesystem used by the client cache manager to cache files.
599
600 With the new namei file server you can basically use any filesystem you want. Tne namei file server does not do any fancy stuff behind the scenes but only accesses normal files (their names are a bit strange though).
601
602 But you cannot use SGI efs under [[OpenAFS]] at all.
603
604 It is a different story with the old inode based server. It directly operates on the inodes of the underlying file system which therefore has to fully support the inode abstraction scheme. The the Administrators Guide for more details (they differ from system to system).
605
606 On the client side, you always have to use a file system supporting the inode abstraction for the cache (usually /usr/vice/cache) since the cache manager references files by their inode. Fortunately, it does not do such tricky stuff as the inode based server.
607
608 The following file systems have been reported _not_ to work for the AFS client cache:
609
610 - reiserfs
611 - vxfs (HP-UX)
612 - advfs (Tru64), it works but gives cachecurruption
613 - efs (SGI) - IBM AFS does support efs, but openafs doesn't have a license for that
614
615 - Patch committed to cvs around 6/2003 will now enforce this in some cases and generate a warning to the user if the filesystem type is wrong.
616
617 The following file systems have been reported to work for the AFS client cache:
618
619 - ext2
620 - ext3
621 - hfs (HP-UX)
622 - xfs (at least on IRIX 6.5)
623 - ufs (Solaris, [[Tru64Unix]])
624
625 ### <a name="3.30 Compiling _OpenAFS"></a> 3.30 Compiling [[OpenAFS]]
626
627 The kernel parts on Solaris have to be compiled with Sun cc, same for other platforms, i.e. you need same compiler used to compile kernel to compile your afs modules. [[Tru64Unix]] doesn't support modules, so you have to edit kernel config files and link statically into kernel. Kernel module insertion works fine on Linux, Solaris, Irix ...
628
629     ./configure --enable-transarc-paths=/usr/etc --with-afs-sysname=i386_linux24
630     make dest
631     cd dest/i386_linux24
632
633 ... and continue the install process described in IBM AFS documentation. If you do "make install", you will end up with some stuff installed into /usr/local but something not, regardless the --enable-transarc-paths option ... "make install" it's messy.
634
635 ### <a name="3.31 Upgrading _OpenAFS"></a> 3.31 Upgrading [[OpenAFS]]
636
637 Upgrade of AFS on Solaris 2.6
638
639     cd /etc/rc3.d/
640     mv S20afs aS20afs
641     init 6
642     cd root.server/usr/afs
643     tar cvf - ./bin | (cd /usr/afs; tar xfp -)
644     cd ../../..
645     cp root.client/usr/vice/etc/modload/libafs.nonfs.o /kernel/fs/afs
646     cp root.server/etc/vfsck /usr/lib/fs/afs/fsck
647     cd root.client/usr/vice
648     tar cvf - ./etc | (cd /usr/vice; tar xf -)
649     cd ../../..
650     cp lib/pam_afs.krb.so.1 /usr/lib/security
651     cp lib/pam_afs.so.1 /usr/lib/security
652     cd /etc/rc3.d
653     mv aS20afs S20afs
654     init 6
655
656 Upgrade of AFS on Irix 6.5
657
658     /etc/chkconfig -f afsserver off
659     /etc/chkconfig -f afsclient off
660     /etc/chkconfig -f afsml off
661     /etc/chkconfig -f afsxnfs off
662     /etc/reboot
663     cd root.server/usr/afs
664     tar cvf - ./bin | (cd /usr/afs; tar xfp -)
665     cd ../../..
666     cp root.client/usr/vice/etc/sgiload/libafs.IP22.nonfs.o /usr/vice/etc/sgiload
667     echo "AFS will be compiled statically into kernel"
668     echo "otherwise skip following lines and use chkconfig afsml on"
669     cp root.client/bin/afs.sm  /var/sysgen/system
670     cp root.client/bin/afs /var/sysgen/master.d
671     echo "The next file comes from openafs-*/src/libafs/STATIC.*"
672     cp root.client/bin/libafs.IP22.nonfs.a /var/sysgen/boot/afs.a
673     cp /unix /unix_orig
674     /etc/autoconfig
675     echo "end of static kernel modifications"
676     cd root.client/usr/vice/etc
677     echo "Delete any of the modload/ files which don't fit your platform if you need space"
678     echo "These files originate from openafs-*/src/libafs/MODLOAD.*"
679     tar cvf - . | (cd /usr/vice/etc; tar xf -)
680     /etc/chkconfig -f afsserver on
681     /etc/chkconfig -f afsclient on
682     # /etc/chkconfig -f afsml on - afs is compiled statically into kernel, so leave afsml off
683     /etc/chkconfig -f afsml off
684     /etc/chkconfig -f afsxnfs off
685     /etc/reboot
686
687 Upgrade of AFS on [[Tru64Unix]]
688
689     cd root.server/usr/afs/
690     tar cvf - ./bin | (cd /usr/afs; tar xfp -)
691     cd ../../../root.client/bin
692     cp ./libafs.nonfs.o /usr/sys/BINARY/afs.mod
693     ls -la /usr/sys/BINARY/afs.mod
694     doconfig -c FOO
695     cd ../../root.client/usr/vice
696     cp etc/afsd /usr/vice/etc/afsd
697     cp etc/C/afszcm.cat /usr/vice/etc/C/afszcm.cat
698
699 ### <a name="3.32 Debugging _OpenAFS"></a> 3.32 Debugging [[OpenAFS]]
700
701 In case of troubles when you need only fileserver process to run (to be able to debug), run the lwp fileserver instead of the pthreads fileserver (src/viced/fileserver instead of src/tviced/fileserver if you have a buildtree handy):
702
703 cp src/viced/fileserver /usr/afs/bin (or wherever)
704
705     bos restart calomys fs -local
706
707 ... then attach with gdb
708
709 To debug if client running afsd kernel process talks to the servers from [[CellServDB]], do:
710
711     tcpdump -vv -s 1500 port 7001
712
713 Other ports are:
714
715     fileserver      7000/udp                        # fileport (FILESERVICE)
716     afscb           7001/udp                        # kernel extensions
717     afsprot         7002/udp                        # ptserver (PROTSERVICE)
718     afsvldb         7003/udp                        # vlserver (VLDBSERVICE)
719     afskauth        7004/udp                        # kaserver (KAUTHSERVICE)
720     afsvol          7005/udp                        # volserver (VOLUMESERVICE)
721     afserror        7006/udp                        # ERRORSERVICE
722     afsnanny        7007/udp                        # bosserver (NANNYSERVICE)
723     afsupdate       7008/udp                        # upserver (UPDATESERVICE)
724     afsrmtsys       7009/udp                        # RMTSYSSERVICE
725
726 ### <a name="3.33 Tuning client cache for hug"></a> 3.33 Tuning client cache for huge data
727
728 Use on afsd command line -chunk 17 or greater. Be carefull, with certain cache sizes afsd crashes on startup (Linux, [[Tru64Unix]] at least).
729
730 ### <a name="3.34 Settting up PAM with AFS"></a> 3.34 Settting up PAM with AFS
731
732 Solaris
733
734     auth        sufficient    /lib/security/pam_afs.so debug try_first_pass ignore_root debug
735     auth        required      /lib/security/pam_env.so
736     auth        sufficient    /lib/security/pam_unix.so likeauth nullok
737     auth        required      /lib/security/pam_deny.so
738
739     account     required      /lib/security/pam_unix.so
740
741     password    required      /lib/security/pam_cracklib.so retry=3 type=
742     password    sufficient    /lib/security/pam_unix.so nullok use_authtok md5 shadow
743     password    required      /lib/security/pam_deny.so
744
745     session     sufficient    /lib/security/pam_afs.so set_token
746     session     required      /lib/security/pam_limits.so
747     session     required      /lib/security/pam_unix.so
748
749     # reafslog is to unlock dtlogin's screensaver
750     other  auth sufficient /usr/athena/lib/pam_krb4.so reafslog
751
752 ### <a name="3.35 Setting up AFS key in KDC a"></a> 3.35 Setting up AFS key in KDC and [[KeyFile]]
753
754 The easiest method is not much recommended, as the password is possibly very weak:
755
756     dattan# bos addkey server -kvno <n+1>
757     <pw>
758     <pw-again>
759
760     dattan# kstring2key -c <cellname>
761     <pw>
762
763     dattan# kadmin ckey afs
764     <cut-n-paste the ascii output from above>
765
766 Beware, there is currently a byte order bug in the kadmin tool as of May 2001 in KTH-KRB. If you run kadmin on a little indian machine (PC, Alpha, ...) you must swap the bytes manually. Here is a small example:
767
768     bg$ kstring2key -c sics.se
769     password:
770     ascii = \361\334\211\221\221\206\325\334
771     hex   = f1dc89919186d5dc
772     bg$ kadmin
773     kadmin: ckey afs
774     bg.admin@SICS.SE's Password:
775     New DES key for afs: \221\211\334\361\334\325\206\221
776
777 Please note how the bytes are swapped in groups of four.
778
779 This bug is fixed in an upcoming release.
780
781 Better approach is to create random key in KDC using "ksrvutil get" (rather then "ksrvutil add" which asks you for the new password), export it into /etc/srvtab ("ksrvutil ext") and from there copy it into /usr/afs/etc/KeyFile using asetkey utility from /afs/transarc.com/public/afs-contrib. After some years, you may wish to regenerate the random afs key using "ksrvutil change" in KDC and exporting it again.
782
783 There are two nice pages abou this:
784
785 <http://www.cs.cmu.edu/afs/andrew.cmu.edu/usr/shadow/www/afs/afs-with-kerberos.html> <http://www.contrib.andrew.cmu.edu/~shadow/afs/afs-with-kerberos.html>
786
787 As someone noted, you might need some ext\_srvtab utility to extract the key from /etc/srvtab, but I don't remeber that I needed it. Then he also suggets to use asetkey utility.
788
789 Create afs.natur\\.cuni\\.cz@NATUR.CUNI.CZ principal entry in kerberos:
790
791       principal name: afs
792       principal instance: natur.cuni.cz
793       principal realm: NATUR.CUNI.CZ
794
795 Import this key from Kerberos (/etc/srvtab) into AFS /usr/afs/etc/KeyFile using asetkey utility, which is I think from /afs/transarc.com/public/afs-contrib
796
797 ./asetkey add 0 /etc/srvtab <afs.natur.cuni.cz@NATUR.CUNI.CZ>
798
799 This [[KeyFile]] with the AFS-key you can just always re-copy to new AFS **server** machines. Be sure that the key version number KVNO is always same in this [[KeyFile]] and in Kerberos database. On all these machines you of course need afs.hostname.REALM key loaded into their /etc/srvtab (create them with 'ksrvutil get'). It seems klog(1) needs afs@REALM, so copy the principal afs.cell.name@REALM to it.
800
801 You can test if you have same keys in kerberos and AFS like this:
802
803     kauth username
804     tokens
805
806 If you have some tokens now, then it works and you can now shutdown kaserver. Users, which you have created in AFS under kaserver are in /usr/afs/db/kaserver.\*, but you can just forget them. Create these users again in Kerberos IV.
807
808 AFS users are then looked up in:
809
810 kerberos database (/var/kerberos/principal.db)
811
812 /usr/afs/etc/UserList (permission to manipulate 'bos')
813
814 system:administrators (permissions for vos, pts, fs, i.e. 'pts adduser' etc)
815
816     ---------------------------------------------------------------------------------
817     Another approach, untested:
818
819     http://www.natur.cuni.cz/~majordomo/krb4/krb4.9703/msg00002.html
820
821     Date: Tue, 9 May 2000 10:57:23 +0200 (MET DST)
822     From: Johan Hedin <johanh  at  fusion.kth.se>
823     To: Erland Fristedt <Erland.Fristedt@wcs.eraj.ericsson.se>
824     Cc: krb4@sics.se
825     Subject: Re: AFS+KTH-KRB problem
826
827     This is a printout how we got it to work. Hope this helps.
828
829     /Johan Hedin
830
831     callisto#/usr/athena/sbin/ksrvutil -p johanh.admin -f srvtab get
832     Name [rcmd]: afs
833     Instance [callisto]: fusion.kth.se
834     Realm [FUSION.KTH.SE]:
835     Is this correct? (y,n) [y]
836     Add more keys? (y,n) [n]
837     Password for johanh.admin@FUSION.KTH.SE:
838     Warning: Are you sure `fusion.kth.se' should not be `fusion'?
839     Added afs.fusion.kth.se@FUSION.KTH.SE
840     Old keyfile in srvtab.old.
841     callisto#/usr/athena/sbin/ksrvutil -p johanh.admin -f srvtab list
842     Version    Principal
843        4     afs.fusion.kth.se@FUSION.KTH.SE
844     callisto#/tmp/asetkey add 4 srvtab afs.fusion.kth.se@FUSION.KTH.SE
845     callisto#cd ..
846     callisto#bin/bos status callisto
847     Instance buserver, currently running normally.
848     Instance ptserver, currently running normally.
849     Instance vlserver, currently running normally.
850     Instance fs, currently running normally.
851         Auxiliary status is: file server running.
852     callisto#bin/fs la /afs
853     Access list for /afs is
854     Normal rights:
855       system:administrators rlidwka
856
857     --------------------------------------------------------------------------------
858     > Tokens held by the Cache Manager:
859     >
860     > User's (AFS ID 6020) tokens for afs@sunrise.ericsson.se [Expires May  5
861     > 04:05]
862     >    --End of list--
863
864     You got your tickets alright, but then
865
866     > > touch /afs/.sunrise.ericsson.se/tabort
867     > afs: Tokens for user of AFS id 6020 for cell sunrise.ericsson.se are
868     > discarded (rxkad error=19270407)
869
870     grep 19270407 /usr/afsws/include/rx/*
871     /usr/afsws/include/rx/rxkad.h:#define RXKADBADTICKET (19270407L)
872
873     so I would guess that the key version number and/or the key on your
874     AFS servers does not match the key of the afs principal.
875
876     Use klist -v to figure out about key version numbers and then use
877
878     $ kstring2key -c sunrise.ericsson.se
879     password:
880     ascii = \242\345\345\260\323p\263\233
881     hex   = a2e5e5b0d370b39b
882
883     or some other means to ensure that you use the same keys.
884
885 ### <a name="3.36 Obtaining and getting asetk"></a> 3.36 Obtaining and getting asetkey compiled
886
887 Better approach is to create random key in KDC, export it into /etc/srvtab and from there move in /usr/afs/etc/KeyFile using asetkey utility from /afs/transarc.com/public/afs-contrib
888
889     |  I can not get asetkey to compile.
890     |
891     |  asetkey.c: In function `main':
892     |  asetkey.c:25: `AFSCONF_SERVERNAME' undeclared (first use in this function)
893     |  asetkey.c:25: (Each undeclared identifier is reported only once
894     |  asetkey.c:25: for each function it appears in.)
895     +--->8
896
897 AFS 3.5 got rid of a few commonly-used AFS defines; I suspect they are now API calls of some kind, akin to the POSIX move from hardcoded constants to use of \{,f\}pathconf() and sysconf(). I have no idea what those calls are, though.
898
899 In the meantime, the following two defines are useful in building stuff on AFS 3.5:
900
901     #define AFSCONF_CLIENTNAME      "/usr/vice/etc"
902     #define AFSCONF_SERVERNAME      "/usr/afs/etc"
903
904 ### <a name="3.37 afs_krb_get_lrealm() using"></a><a name="3.37 afs_krb_get_lrealm() using "></a> 3.37 afs\_krb\_get\_lrealm() using /usr/afs/etc/krb.conf
905
906 In this file you can set also another REALM to be used by you afs server processes, if the REALM should differ from the system-wide REALM (
907
908     /etc/krb.conf
909
910 ).
911
912 Don't forget it's related to these entries in Kerberos KDC:
913
914     afs.cell.name@REALM
915     krbtgt CELL.NAME@REALM
916
917 ### <a name="3.38 Moving from kaserver to Hei"></a> 3.38 Moving from kaserver to Heimdal KDC
918
919     > While converting all our administration tools, we have discovered that
920     > the time a principal changed his/her/its password is _not_ carried over
921     > from the kaserver DB.
922
923 First of all, some Heimdal's configure flags:
924
925     --enable-kaserver
926
927 requires krb4 libs, so for that you'll need a working krb4 are you still using a kaserver/kaserver emulation ?
928
929     --enable-kaserver-db
930
931 is just for dumping a kaserver krb4 database. If you are no longer running a kaserver, you don't need it.
932
933 Migration itself:
934
935 <https://lists.openafs.org/pipermail/openafs-info/2002-May/004326.html>
936
937 This works while migrating from kaserver:
938
939     /usr/heimdal/libexec/hprop --source=kaserver --cell=xxx
940     --kaspecials --stdout | /usr/heimdal/libexec/hpropd --no-inetd --stdin
941
942 This somewhat doesn't:
943
944     /usr/heimdal/libexec/hprop --source=kaserver --cell=xxx
945     --encrypt --master-key=<path to key> --kaspecials --stdout |
946     /usr/heimdal/libexec/hpropd --stdin
947
948 ### <a name="3.39 Moving from KTH-KRB4 to Hei"></a> 3.39 Moving from KTH-KRB4 to Heimdal KDC
949
950     /usr/heimdal/libexec/hprop -n -k /etc/krb5.keytab --source=krb4-dump -d /var/kerberos/dump.txt --master-key=/.k -D | /usr/heimdal/libexec/hpropd -n
951
952     or
953
954     1. dump of the krb4 database with kdb_util
955     2. dump of the "default" heimdal database with kadmin -l
956     3. /usr/heimdal/libexec/hprop -n -k /etc/krb5.keytab --source=krb4-dump -d /usr/heimdal/libexec/hprop -n -k /etc/krb5.keytab --source=krb4-dump -d
957        where /etc/krb5.keytab contains hprop/`hostname` keys
958     4. merge of the converted database with file from (2) via kadmin
959
960     The special thing for me is the use of "-D" in the (3) which seems to
961     cause conversion des-cbc-sha1 keys of old krb4 database entries to
962     des-cbc-md5.