Kategorie: Cyber Security
-
Teil 4 – Prototype Pollution finden und nachvollziehen
Warum das Testen so tricky ist Prototype Pollution ist keine Schwachstelle, die man wie SQL Injection mit einem ‚ OR 1=1—Payload sofort sieht. Sie ist subtiler: Umso wichtiger: zu verstehen, wie man selbst systematisch prüft. Schritt 1 – Code-Smells im Review Bevor du überhaupt Requests abfeuerst, lohnt sich ein Blick in den Code (falls du…
-
Teil 5 – Schutzmaßnahmen und Best Practices gegen Prototype Pollution
Warum Vorbeugung so entscheidend ist Prototype Pollution ist tückisch: Der beste Schutz ist nicht, Pollution nachträglich „aufzuräumen“, sondern sie gar nicht erst entstehen zu lassen. In diesem Beitrag gehen wir Schritt für Schritt durch die wichtigsten Abwehrstrategien. 1. Schlüssel validieren (Blockliste & Positivliste) Prototype Pollution passiert fast immer, weil Anwendungen ungeprüfte Eingaben direkt in Objekte…
-
DNS-Reconnaissance (passiv) – Informationen aus NS, MX und TXT-Records
Einleitung Das Domain Name System (DNS) ist das „Telefonbuch des Internets“. Es sorgt dafür, dass wir statt IP-Adressen einfache Domainnamen wie example.com nutzen können.Für die Passive Reconnaissance ist DNS besonders spannend: Schon ohne direkten Zugriff auf Zielsysteme lassen sich aus den öffentlichen Records viele wertvolle Informationen ableiten – etwa über Infrastruktur, Mailserver oder Sicherheitskonfigurationen. Welche…
-
Bilderkennung & Reverse Image Search – Versteckte Spuren in Fotos
Einleitung „Ein Bild sagt mehr als tausend Worte“ – in der Cybersecurity und besonders in der Passive Reconnaissance kann ein Bild aber noch viel mehr verraten.Fotos enthalten oft versteckte Metadaten oder zeigen unbewusst sensible Informationen. Mit Hilfe von Reverse Image Search lassen sich Bilder zudem quer durchs Internet zurückverfolgen und in neue Kontexte setzen. Welche…
-
Robots.txt & Sitemaps – Welche ungewollten Hinweise Webmaster selbst geben
Einleitung Webmaster nutzen Dateien wie robots.txt und Sitemaps, um Suchmaschinen-Crawlern mitzuteilen, welche Bereiche einer Website indexiert werden dürfen und welche nicht.Für die Passive Reconnaissance sind genau diese Dateien eine unterschätzte, aber wertvolle Informationsquelle – denn oft verraten sie ungewollt interne Strukturen oder sensible Verzeichnisse. Was ist die robots.txt? 👉 Für Passive Recon bedeutet das: ein…
-
Metadaten in Dokumenten – Office, PDF & Bilder als unbemerkte Infoquellen
Einleitung Wenn Unternehmen Dateien wie PDFs, Word-Dokumente oder Bilder online stellen, denken sie meist nur an den sichtbaren Inhalt. Doch in vielen Fällen enthalten diese Dateien versteckte Zusatzinformationen – sogenannte Metadaten.Für die Passive Reconnaissance sind Metadaten ein echter Geheimtipp: Sie verraten Details über Autoren, Software, Systeme oder sogar interne Dateipfade. Was sind Metadaten? Metadaten sind…
-
CDNs & Hosting-Provider – Welche Rückschlüsse auf Architektur möglich sind
Einleitung Hinter einer Website steckt fast nie nur ein einzelner Server. Viel häufiger wird moderne Infrastruktur durch Content Delivery Networks (CDNs) und externe Hosting-Provider betrieben.Für die Passive Reconnaissance sind diese Informationen spannend, denn sie geben Hinweise auf die technische Architektur, Abhängigkeiten und mögliche Angriffsflächen. Was sind CDNs und Hosting-Provider? Content Delivery Networks (CDNs) Hosting-Provider Welche…
-
Webserver-Header & HTTP-Informationen – Metadaten nutzen, ohne direkten Angriff
Einleitung Jede Website, die wir im Browser aufrufen, schickt nicht nur Inhalte zurück, sondern auch eine Vielzahl an HTTP-Headern. Diese Metadaten enthalten oft Hinweise auf verwendete Technologien, Serverkonfigurationen und Sicherheitsmechanismen.Für die Passive Reconnaissance sind solche Header eine wertvolle Informationsquelle – ganz ohne aktiven Angriff. Was sind HTTP-Header? HTTP-Header sind Zusatzinformationen, die beim Austausch zwischen Browser…
-
Wayback Machine & Archive.org – Wie alte Website-Versionen helfen, Strukturen zu verstehen
Einleitung Das Internet vergisst selten. Selbst wenn Unternehmen Inhalte von ihrer Website entfernen oder ganze Systeme offline nehmen, sind diese oft weiterhin über Archive wie die Wayback Machine von Archive.org auffindbar.Für die Passive Reconnaissance sind solche historischen Daten extrem wertvoll: Sie offenbaren alte Strukturen, Technologien und manchmal sogar sensible Informationen. Was ist die Wayback Machine?…
-
SSL/TLS-Zertifikate analysieren – Was Zertifikatsdetails über Unternehmen verraten
Einleitung SSL/TLS-Zertifikate sorgen für verschlüsselte Verbindungen im Internet – erkennbar am HTTPS in der Adresszeile. Doch neben ihrer Sicherheitsfunktion enthalten Zertifikate oft auch wertvolle Metadaten, die für die Passive Reconnaissance von großem Interesse sind.Angreifer, Pentester und Verteidiger können durch die Analyse von Zertifikaten erstaunlich viel über ein Unternehmen herausfinden. Was steckt in einem Zertifikat? Ein…