Ditt kommando kokar faktiskt ner till detta:
convert -size 600x400 xc:none \
\( 1.png -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 2.png -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 3.png -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 4.png -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 5.png -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 6.png -fill rgb\(x,y,z\) -colorize 100% \) -composite \
result.png
Mina tankar är följande:
Punkt 1:
Den första -composite
på en tom duk verkar meningslöst - förmodligen 1.png
är en 600x400 PNG med transparens, så din första rad kan undvika sammansättningsoperationen och spara 16 % av bearbetningstiden genom att ändra till:
convert -background none 1.png -fill ... -colorize 100% \
\( 2.png ..
\( 3.png ...
Punkt 2
Jag satte motsvarande ditt kommando i en loop och gjorde 100 iterationer och det tar 15 sekunder. Jag ändrade sedan alla dina läsningar av PNG-filer till läsningar av MPC
filer - eller Magick Pixel Cache-filer. Det minskade handläggningstiden till knappt 10 sekunder, dvs med 33 %. En Magic Pixel Cache är bara en fördekomprimerad, föravkodad fil som kan läsas direkt i minnet utan CPU-ansträngning. Du kan förskapa dem när din katalog ändras och lagra dem tillsammans med PNG-filerna. För att göra en gör du
convert image.png image.mpc
och du kommer att få ut image.mpc
och image.cache
. Då skulle du helt enkelt ändra din kod så att den ser ut så här:
convert -size 600x400 xc:none \
\( 1.mpc -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 2.mpc -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 3.mpc -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 4.mpc -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 5.mpc -fill rgb\(x,y,z\) -colorize 100% \) -composite \
\( 6.mpc -fill rgb\(x,y,z\) -colorize 100% \) -composite \
result.png
Punkt 3
Tyvärr har du inte svarat på mina frågor än, men om din tillgångskatalog inte är för stor kan du lägga den (eller MPC-motsvarigheterna ovan) på en RAM-disk vid systemstart.
Punkt 4
Du bör definitivt köra parallellt - det kommer att ge de största vinsterna av alla. Det är väldigt enkelt med GNU Parallel - exempel här.
Om du använder REDIS är det faktiskt enklare än så. Bara LPUSH
dina MIME-kodade bilder till en REDIS-lista så här:
#!/usr/bin/perl
################################################################################
# generator.pl <number of images> <image size in bytes>
# Mark Setchell
# Base64 encodes and sends "images" of specified size to REDIS
################################################################################
use strict;
use warnings FATAL => 'all';
use Redis;
use MIME::Base64;
use Time::HiRes qw(time);
my $Debug=0; # set to 1 for debug messages
my $nargs = $#ARGV + 1;
if ($nargs != 2) {
print "Usage: generator.pl <number of images> <image size in bytes>\n";
exit 1;
}
my $nimages=$ARGV[0];
my $imsize=$ARGV[1];
# Our "image"
my $image="x"x$imsize;
printf "DEBUG($$): images: $nimages, size: $imsize\n" if $Debug;
# Connection to REDIS
my $redis = Redis->new;
my $start=time;
for(my $i=0;$i<$nimages;$i++){
my $encoded=encode_base64($image,'');
$redis->rpush('images'=>$encoded);
print "DEBUG($$): Sending image $i\n" if $Debug;
}
my $elapsed=time-$start;
printf "DEBUG($$): Sent $nimages images of $imsize bytes in %.3f seconds, %d images/s\n",$elapsed,int($nimages/$elapsed);
och sedan köra flera arbetare som alla sitter där och gör BLPOPs av jobb att göra
#!/usr/bin/perl
################################################################################
# worker.pl
# Mark Setchell
# Reads "images" from REDIS and uudecodes them as fast as possible
################################################################################
use strict;
use warnings FATAL => 'all';
use Redis;
use MIME::Base64;
use Time::HiRes qw(time);
my $Debug=0; # set to 1 for debug messages
my $timeout=1; # number of seconds to wait for an image
my $i=0;
# Connection to REDIS
my $redis = Redis->new;
my $start=time;
while(1){
#my $encoded=encode_base64($image,'');
my (undef,$encoded)=$redis->blpop('images',$timeout);
last if !defined $encoded;
my $image=decode_base64($encoded);
my $l=length($image);
$i++;
print "DEBUG($$): Received image:$i, $l bytes\n" if $Debug;
}
my $elapsed=time-$start-$timeout; # since we waited that long for the last one
printf "DEBUG($$): Received $i images in %.3f seconds, %d images/s\n",$elapsed,int($i/$elapsed);
Om jag kör en generatorprocess enligt ovan och låter den generera 100 000 bilder på 200 kB vardera och läser upp dem med 4 arbetsprocesser på min rimliga specifika iMac, tar det 59 sekunder, eller cirka 1 700 bilder/s kan passera genom REDIS.