Analysieren von Befehlsverlaufsdaten

LinuxLinuxBeginner
Jetzt üben

💡 Dieser Artikel wurde von AI-Assistenten übersetzt. Um die englische Version anzuzeigen, können Sie hier klicken

Einführung

Diese Herausforderung konzentriert sich auf die Analyse der Befehlsverwendungsgeschichte in einem Linux-System und die Übung der Datenstromumleitung. Durch die Vollendung dieser Aufgabe verbessern Sie Ihre Textverarbeitungskompetenzen, vertraut sich mit gängigen Linux-Befehlen und gewinnen ein besseres Verständnis der Eingabe/Ausgabe-Manipulation in Linux-Umgebungen.


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL shell(("Shell")) -.-> shell/BasicSyntaxandStructureGroup(["Basic Syntax and Structure"]) linux(("Linux")) -.-> linux/BasicFileOperationsGroup(["Basic File Operations"]) linux(("Linux")) -.-> linux/TextProcessingGroup(["Text Processing"]) shell(("Shell")) -.-> shell/AdvancedScriptingConceptsGroup(["Advanced Scripting Concepts"]) linux(("Linux")) -.-> linux/InputandOutputRedirectionGroup(["Input and Output Redirection"]) shell/BasicSyntaxandStructureGroup -.-> shell/quoting("Quoting Mechanisms") linux/BasicFileOperationsGroup -.-> linux/cat("File Concatenating") linux/TextProcessingGroup -.-> linux/awk("Text Processing") linux/TextProcessingGroup -.-> linux/sort("Text Sorting") linux/TextProcessingGroup -.-> linux/uniq("Duplicate Filtering") shell/AdvancedScriptingConceptsGroup -.-> shell/adv_redirection("Advanced Redirection") linux/InputandOutputRedirectionGroup -.-> linux/pipeline("Data Piping") linux/InputandOutputRedirectionGroup -.-> linux/redirect("I/O Redirecting") subgraph Lab Skills shell/quoting -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} linux/cat -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} linux/awk -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} linux/sort -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} linux/uniq -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} shell/adv_redirection -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} linux/pipeline -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} linux/redirect -.-> lab-17988{{"Analysieren von Befehlsverlaufsdaten"}} end

Analyse von Befehlsverlaufsdaten mit Datenstromumleitung

Anforderungen

Ihre Aufgabe besteht darin, eine Datei zu analysieren, die eine Aufzeichnung der Befehlsverwendung enthält. Sie müssen die drei am häufigsten verwendeten Befehle in der Datei identifizieren und die Ergebnisse in /home/labex/project/result speichern. Diese Aufgabe muss unter Verwendung von Datenstromumleitungstechniken gelöst werden.

Aufgaben

  1. Verarbeiten Sie die Datei data1 im Verzeichnis /home/labex/project/ mit den Befehlen awk, sort, uniq und head in Kombination mit Datenstromumleitung.
  2. Leiten Sie die drei am häufigsten verwendeten Befehle in die Datei /home/labex/project/result um.
  3. Formatieren Sie die Ergebnisse so, dass sowohl die Anzahl der Vorkommen als auch der Befehl enthalten sind, in der Form "Anzahl Befehl" (z. B. "100 ls").

Beispiel

Beispielinhalt der Datei data1:

895  echo $?
896  openstack compute service list
897  cd /home/chy/openstack/
898 . admin-openrc

Erwartetes Ausgabeformat in /home/labex/project/result:

150 openstack
114 systemctl
105 ls

Nur die drei am häufigsten verwendeten Befehle sollten in der Ergebnisdatei enthalten sein.

Tipps

Sie müssen möglicherweise awk verwenden, um den Befehl aus dem Dateiinhalt zu extrahieren. Hier sind einige nützliche awk-Beispiele:

  • awk '{print $2}': Gibt das zweite Feld jeder Zeile aus.
  • awk '{print $1, $2}': Gibt das erste und zweite Feld jeder Zeile aus.
✨ Lösung prüfen und üben

Zusammenfassung

In dieser Herausforderung haben Sie die Analyse der Befehlsverwendungsgeschichte geübt und dabei Linux-Datenstromumleitungstechniken angewendet. Diese Übung hat Ihre Fähigkeiten in der Textverarbeitung verbessert, Ihre Vertrautheit mit gängigen Linux-Befehlen erhöht und Ihr Verständnis der Eingabe/Ausgabe-Manipulation vertieft. Diese Fähigkeiten sind für Systemadministratoren und fortgeschrittene Benutzer in Linux-Umgebungen von großem Wert.