]> git.donarmstrong.com Git - debhelper.git/blobdiff - dh_compress
r2023: releasing version 5.0.54
[debhelper.git] / dh_compress
index 9d287af420b6477b2b425ce49f2ae2cddfd6e295..4b65efb69a4369742e2002c75b53b5b1ff2c4015 100755 (executable)
@@ -26,7 +26,7 @@ be compressed, namely all files in usr/share/info, usr/share/man,
 usr/X11R6/man, files in usr/share/doc that are larger than 4k in size,
 (except the copyright file, .html and .css files, and files that appear to be
 already compressed based on their extensions), and all changelog files. Plus
-PCF fonts underneath usr/X11R6/lib/X11/fonts/
+PCF fonts underneath usr/X11R6/lib/X11/fonts/ and usr/share/fonts/X11/
 
 If a debian/package.compress file exists, however, it will be ran as a shell
 script, and all filenames that the shell script outputs will be compressed
@@ -42,7 +42,7 @@ if you really have to.
 =item B<-X>I<item>, B<--exclude=>I<item>
 
 Exclude files that contain "item" anywhere in their filename from being
-compressed. For example, -X.jpeg will exclude jpeg's from compression.
+compressed. For example, -X.jpeg will exclude jpeg files from compression.
 You may use this option multiple times to build up a list of things to
 exclude. You can accomplish the same thing by using a debian/compress file,
 but this is easier.
@@ -103,7 +103,7 @@ foreach my $package (@{$dh{DOPACKAGES}}) {
                                ! -iname "*-gz"  ! -iname "*-z" ! -iname "*_z" \\
                                ! -iname "*.jar" ! -iname "*.zip" ! -iname "*.css" \\
                                ! -name "copyright" 2>/dev/null || true;
-                       find usr/X11R6/lib/X11/fonts -type f -name "*.pcf" 2>/dev/null || true;
+                       find usr/X11R6/lib/X11/fonts usr/share/fonts/X11 -type f -name "*.pcf" 2>/dev/null || true;
                `);
        }
 
@@ -166,16 +166,24 @@ foreach my $package (@{$dh{DOPACKAGES}}) {
        chdir($olddir);
 
        # Fix up symlinks that were pointing to the uncompressed files.
-       open (FIND,"find $tmp -type l |");
-       while (<FIND>) {
-               chomp;
-               my ($directory)=m:(.*)/:;
-               my $linkval=readlink($_);
-               if (! -e "$directory/$linkval" && -e "$directory/$linkval.gz") {
-                       doit("rm","-f",$_);
-                       doit("ln","-sf","$linkval.gz","$_.gz");
+       my %links = map { chomp; $_ => 1 } `find $tmp -type l`;
+       my $changed;
+       # Keep looping through looking for broken links until no more
+       # changes are made. This is done in case there are links pointing
+       # to links, pointing to compressed files.
+       do {
+               $changed = 0;
+               foreach my $link (keys %links) {
+                       my ($directory) = $link =~ m:(.*)/:;
+                       my $linkval = readlink($link);
+                       if (! -e "$directory/$linkval" && -e "$directory/$linkval.gz") {
+                               doit("rm","-f",$link);
+                               doit("ln","-sf","$linkval.gz","$link.gz");
+                               delete $links{$link};
+                               $changed++;
+                       }
                }
-       }
+       } while $changed;
 }
 
 =head1 SEE ALSO