So verwenden Sie eine Multi-Core-CPU, um Ihre Linux-Befehle zu beschleunigen (GNU Parallel)

So verwenden Sie eine Multi-Core-CPU, um Ihre Linux-Befehle zu beschleunigen (GNU Parallel)

Mussten Sie schon einmal sehr große Datenmengen (Hunderte von GB) verarbeiten? Oder darin suchen oder eine andere Operation durchführen – etwas, das nicht parallelisiert werden kann. Datenexperten, ich spreche mit Ihnen. Sie verfügen möglicherweise über eine CPU mit 4 oder mehr Kernen, aber unsere entsprechenden Tools wie grep, bzip2, wc, awk, sed usw. sind Single-Thread-Tools und können nur einen CPU-Kern verwenden.

Um die Zeichentrickfigur Cartman zu paraphrasieren: „Wie kann ich diese Kerne verwenden?“

Damit Linux-Befehle alle CPU-Kerne nutzen, müssen wir den GNU Parallel-Befehl verwenden, der es allen CPU-Kernen ermöglicht, magische Map-Reduce-Operationen in einer einzigen Maschine durchzuführen. Natürlich erfordert dies auch die Hilfe des selten verwendeten Parameters –pipes (auch –spreadstdin genannt). Auf diese Weise wird Ihre Last tatsächlich gleichmäßig auf die CPUs verteilt.

BZIP2

bzip2 ist ein besseres Komprimierungstool als gzip, aber es ist langsam! Keine Sorge, wir haben eine Möglichkeit, dieses Problem zu lösen.

Bisherige Praxis:

cat bigfile.bin | bzip2 --best > komprimierteDatei.bz2

Jetzt so:

cat bigfile.bin | parallel --pipe --recend '' -k bzip2 --best > komprimierte Datei.bz2

Insbesondere für bzip2 ist GNU Parallel auf Multi-Core-CPUs superschnell. Ehe man es weiß, ist es erledigt.

GREP

Wenn Sie eine sehr große Textdatei haben, haben Sie möglicherweise bereits Folgendes getan:

grep-Muster bigfile.txt

Jetzt können Sie Folgendes tun:

cat bigfile.txt | parallel --pipe grep 'Muster'

Oder so:

cat bigfile.txt | parallel --block 10M --pipe grep 'Muster'

Bei dieser zweiten Verwendung wird der Parameter --block 10M verwendet, was bedeutet, dass jeder Kern 10 Millionen Zeilen verarbeitet. Mit diesem Parameter können Sie anpassen, wie viele Datenzeilen von jedem CPU-Kern verarbeitet werden.

AWK

Unten sehen Sie ein Beispiel für die Verwendung des awk-Befehls zum Berechnen einer sehr großen Datendatei.

Allgemeine Verwendung:

Katze rands20M.txt | awk '{s+=$1} END {print s}'

Jetzt so:

cat rands20M.txt | parallel --pipe awk \'{s+=\$1} END {print s}\' | awk '{s+=$1} END {print s}'

Dies ist etwas kompliziert: Der Parameter --pipe im parallelen Befehl unterteilt die Cat-Ausgabe in mehrere Blöcke und leitet sie an den Awk-Aufruf weiter, wodurch viele Unterberechnungsvorgänge entstehen. Diese Unterberechnungen werden über eine zweite Pipeline in denselben awk-Befehl weitergeleitet, der das Endergebnis ausgibt. Das erste awk hat drei Backslashes, die von GNU parallel zum Aufruf von awk benötigt werden.

WC

Möchten Sie die Anzahl der Zeilen in einer Datei so schnell wie möglich zählen?

Traditioneller Ansatz:

wc -l großeDatei.txt

Jetzt sollten Sie Folgendes haben:

cat bigfile.txt | parallel --pipe wc -l | awk '{s+=$1} END {print s}'

Sehr clever: Verwenden Sie zunächst den parallelen Befehl, um eine große Anzahl von wc -l-Aufrufen in Unterberechnungen zu „zuordnen“, und senden Sie sie schließlich zur Aggregation über die Pipe an awk.

SED

Möchten Sie den Befehl sed verwenden, um viele Ersetzungsvorgänge in einer großen Datei durchzuführen?

Konventionelle Praxis:

sed s^alt^neu^g bigfile.txt

Jetzt können Sie:

cat bigfile.txt | parallel --pipe sed s^alt^neu^g

… und dann können Sie die Pipe verwenden, um die Ausgabe in einer bestimmten Datei zu speichern.

Das Obige ist der vollständige Inhalt dieses Artikels. Ich hoffe, er wird für jedermanns Studium hilfreich sein. Ich hoffe auch, dass jeder 123WORDPRESS.COM unterstützen wird.

Das könnte Sie auch interessieren:
  • 15-minütiges paralleles Artefakt GNU Parallel Erste Schritte

<<:  So installieren Sie die grüne Version von MySQL Community Server 5.7.16 und implementieren die Remote-Anmeldung

>>:  Einfache Analyse von EffectList in React

Artikel empfehlen

MySQL-Operator-Zusammenfassung

Inhaltsverzeichnis 1. Arithmetische Operatoren 2....

Docker erstellt Redis5.0 und mountet Daten

Inhaltsverzeichnis 1. Einfaches Einbinden persist...

Aufbau einer Zookeeper-Standalone-Umgebung und einer Clusterumgebung

1. Aufbau einer Einzelmaschinenumgebung# 1.1 Heru...

Der Prozess der schnellen Konvertierung eines MySQL-Left-Joins in einen Inner-Join

Während des täglichen Optimierungsprozesses stell...

So stellen Sie War-Pakete manuell über Tomcat9 unter Windows und Linux bereit

Die Ergebnisse sind in Windows- und Linux-Umgebun...

Detaillierte Schritte zur Installation des NERDTree-Plugins in Vim unter Ubuntu

NERDTree ist ein Dateisystembrowser für Vim. Mit ...

Erstellen einer KVM-Virtualisierungsplattform auf CentOS7 (drei Möglichkeiten)

KVM steht für Kernel-based Virtual Machine und is...

Lernen Sie einfach verschiedene SQL-Joins

Mit der SQL JOIN-Klausel können Zeilen aus zwei o...

Vue erhält Token zur Implementierung des Beispielcodes für die Token-Anmeldung

Die Idee hinter der Verwendung eines Tokens zur L...

Lösung für das MySQL-Anmeldewarnungsproblem

1. Einleitung Wenn wir uns bei MySQL anmelden, wi...