image

Ein Etwas an SEO.
Ebd. fĂŒr das Erste sehr gut

pixabay, Amigos3D

Des Webmasters Thema Nummer 1 ist die Optimierung fĂŒr Suchmaschinen! Damit ist die SEO* ein Anfang ohne Ende und wird Leuten ambitionierten Webseiten zum Erfolg. Dass welches hier des Beitrags der Inhalt, ist fĂŒrs Erste sehr gut und zur Performanz von Nutzen.

* SEO heißt Suchmaschinen-Optimierung, in englisch search engine optimization (SEO). Webseiten deren Inhalte werden im organischen Suchmaschinenranking (Natural Listings) auf angemessenen PlĂ€tzen erscheinen –. So, die positive Erwartung des Anwenders.

Tab 1: Erst mal ein paar Worte zum Begriff 'Doublierten Content'
Tab 2: Der Last-Modified Header
Tab 3: Die ’sitemap.xml' fĂŒr die Suchmaschinen und (3)
Tab 4: die 'Meta-Elemente'.
Tab 5: Die 'rel-Attribute' fĂŒr die Auszeichnung der Links, ebd. der Website ausgehend.
Tab 6: Die 'robots.txt' und
Tab 6a: Bots effektiv ausladen.
Tab 7: Den Suchmaschinen einen Beitrag ausschließen: Dessen ergeht das sowohl durch Code in der header.php als auch durch Code in der robots.txt.
Tab 8: Als Draufgabe ein 'kleiner' Erfahrungswert. Das mit den kurzen Wörter aus der URL entfernen 

Tab 9: Eine Anmerkung betreffend „lĂ€ngerer URL“

1

Dublierter Content

Abgesehen von möglicher rechtlicher Konsequenz ist [(fast) exakte] Kopie eines Textes anderer Website nicht nur fairnesshalber Abstand zu nehmen. Die Suchmaschinen arbeiten sich durch die Inhalte und erkennen doppelt oder auch mehrfach analogen Text. Einem exakt gleichen Text suchen sich die Suchmaschinen die Fundstellen. Somit ist aus dem Ergebnis möglich, dass fĂŒr das Programm der Suchmaschinen die Website wahrhaften Autors nicht auf dem aktuellen Stand scheint. Diese hiermit aus dem Index streicht und ein Pageturner wird als (pseudo) Autor behalten.

Hingegen in Plazet (also der Erlaubnis) Kopie von Text des Inhalts und mit Link zur Website erkennen die Suchmaschinen den doppelten Text als fundiert. Somit sind beide Websites als legitim eingestuft. – FĂŒr kurzen Textauszug zur Dokumentation mit Link und namentlichen Hinweis zum Autor, wird es auch ohne Nachfrage zur Fairness gereichen – gleich wie auch die namentliche Nennung von Zitat dazugehört.

2

Last-Modified Header fĂŒr WordPress

Was ist der 'if-modified-since-Header' und wie ist das zu verstehen? Dieser Fragestellung möchte ich hier auf die SprĂŒnge helfen. Wie meist, ergeht der Recherche nun Folgendes.

Der 'if-modified-since-Header' ist ein Datenfeld in der HTTP-Kommunikation zwischen dem Server und den Clients. Die Clients das sind die Browser und die Suchmaschinen-Crawler.

  • Greift ein Client auf einen Server zu, der dieses Header-Datenfeld unterstĂŒtzt, wird die 'Bedingung' ĂŒberprĂŒft. Demnach ist das am Server die ÜberprĂŒfung der Inhalte, ob sich diese seit dem letzten Zugriff geĂ€ndert haben.
  • Wenn dort die Inhalte nicht verĂ€ndert sind, sendet der Server den Status Code 304, um dem Client mitzuteilen, dass er die Inhalte nicht laden muss. Der Client wird hiermit die gecachte Version der Website laden.
  • Bei Crawlern ist dies die Version, die als letztes abgerufen wurde; bei Browsern ist es die Version, die seit dem ersten Ladevorgang im Cache des Browser ist.

GemĂ€ĂŸ den Google Webmaster Guidelines ist die Verwendung des 'if-modified-since Headers' in Empfehlung, denn hiermit braucht der Crawler die Ressource nicht laden.

Der Textauszug ist von der Website  RYTE WIKI  und sehr weiterfĂŒhrend in dem Titel if-modified-since. D. h. erst mal lesen! – weil das gehört hier zum Beitrag.   

Um die „Funktion“ zu nĂŒtzen, ist das ĂŒber das CMS WordPress mitzuteilen. Mit folgendem Codeschnippsel in der functions.php:

add_action('template_redirect', 'add_last_modified_header');

function add_last_modified_header($headers)
	{
	header("Last-Modified: " . get_the_modified_time("D, d M Y H:i:s"));
	}

Zum ÜberprĂŒfungstool REDbot fĂŒr HTTP-Ressourcen. Es testet die Protokollkorrektheit, CachefĂ€higkeit, Inhaltsverhandlung und mehr.

  • Bspw. in Anwendung von Plug-in 'WP Super Cache' ist das mit dem Last-Modified Header dabei. Und zwar im Reiter 'Erweitert' das HĂ€kchen bei '304 Browser caching. Improves site performance by checking if the page has changed since the browser last requested it. (Browser-Caching. Verbessert die Leistung der Website, indem ĂŒberprĂŒft wird, ob sich die Seite seit der letzten Anforderung durch den Browser geĂ€ndert hat. Die UnterstĂŒtzung fĂŒr 304 ist Empfohlen). Soweit ich das verstehe 
 alleinig mit dem HĂ€kchen in WP Super Cache ist im ÜberprĂŒfungstool kein Modified angezeigt. Somit wird das – neben dem obigen Code in der functions.php – auch anzuhaken sein.

3

XML-Sitemap

Nicht zwingend ist ein Verweis auf die XML-Sitemap, aber von Vorteil. Um dem Crawler zu weisen, wo sich die Sitemap befindet, kannn man noch der robots.txt die URL einfĂŒgen.

XML Sitemap generieren

Alleinig als XML-Datei wird die Sitemap in Erweiterung des Codes laut fastwp.de/8423/ generiert. Hiermit ist diese Datei ĂŒber www.domainname.net/sitemap.xml aufzurufen.

  • Nach Veröffentlichung von Seite/Beitrag oder Updates erfolgt sogleich automatische Erneuerung der Sitemap, aber nicht beim Abspeichern nach einfachen Edit eines Artikels.
  • Die Datei sitemap.xml befindet sich im Stammverzeichnis am Web-Host-Server oder, wenn WordPress im Unterordner vorhanden ist, indessen Root-Verzeichnis vom Unterordner „wordpress“.

Möchte man nur die BeitrÀge in der Sitmap generieren, ist dem Snippet obigen Link der Code page wegzulassen:

=> 'modified', 'post_type' => array( 'post', 'page' ),

… mithin kann der Code add_action("publish_page", "create_sitemap");  entfernt werden, weil hiermit bei Veröffenlichung einer Seite nur die Aktualisierung der Sitemap bewerkstelligt wird und somit im Ausschluss der „Seiten“ (page) ohnehin nutzlos ist.

In Verwendung Plug-in WP-Jetpack und entsprechende Aktivierung unter Engagement, ist die Sitemap fĂŒr die Suchmaschinen „Google“ und „bing“ optimiert und fĂŒr Besucher zur Übersicht strukturiert dargestellt. Aufzurufen ist die Sitemap ĂŒber www.domainname.net/sitemap.xml, egal ob ohne- oder mit Unterordner „wordpress“.

4

SEO Meta-Tags

Der Autor fĂŒhrt vom SEO GrundverstĂ€ndnis fastwp.de/wordpress-seo/Â ĂŒber sog. Autom. SEO Meta-Tags* (Snippet in functions.php + Code in header.php) fastwp.de/2161/ zu sog. Autom. Meta-Tags* fastwp.de/5337/ (alleinig in header.php)

* Unterscheidung beachten! – im Titel von Autom. SEO Meta-Tags und Autom. Meta-Tags, welche dasselbe sind, aber der technischen Umsetzung ein Unterschied.

„Autom. SEO Meta-Tags“

Nach dem erstellen des Snippet-Codes in der functions.php ist in Themes header.php, nach <?php wp_head(); ?> einzufĂŒgen:

<?php wp_head(); ?>
<?php echo FastWP_seo(); ?>

Bemerkung zum SEO Meta-Tags (Snippet in functions.php + Code in header.php ): Wenn das Snippet fĂŒr die functions.php deaktiviert ist, erfolgt – durch den Code in header.php zum leeren Code der Funktion (functions.php), – ein Error: also das Snippet fĂŒr die header.php  muss ebenso entfernt werden – weiß man eben.

„Autom. Meta-Tags“

EinfĂŒgen des Snippets in header.php im <head> unter <?php wp_head(); ?>, also dort, wo das Snippet fĂŒr die header.php des SEO Meta-Tags eingefĂŒgt gehörte – ist stattdessen, das „Autom. Meta-Tags“ Snippet einsetzbar, funktionell und meiner Website im Einsatz.

Notiz eines Workflows

zum Snippet des Titels „Autom. Meta-Tags“: Im Versuch des Snippets war vormals der Name des Seitentitels fĂŒr den Browsertab doppelt, also sind adĂ€quate Codes vorhanden und angepasst gehörten. Also anstatt normale SEO Meta-Tags (Snippet in functions.php + Code in header.php ) das performe Snippet Autom. SEO Meta-Tags (alleinig fĂŒr header.php) zu verwenden, ist auf Anhieb nicht gelungen.Siehe hierzu auch HTML-Seitentitel doppelt, und s. einzurahmendem „Beginner workflow“ 


Beginner workflow … also obigen Links (HTML-Seitentitel doppelt) folgend: <title> ist im inc-Ordner verknĂŒpft und wĂ€re somit zu unterscheiden, der Datei customizer.php, custom-header.php … Und in Spielerei mit diesen Dateien (auch herunter- und hochladen) sind vermutlich, aber tatsĂ€chlich, die Widgets der Seitenleisten verschwunden. Die Wiederaufnahme blieb erfolglos, weil die Widgets in den Seitenleisten nicht hielten, d. h. die Konfigurierung war möglich und Websites visuell, aber erneuten Aufrufs der Widgets, die Konfigurierung wieder weg. Sodann nach „Bugfix WordPress“, aber noch nicht funktionell! –, erst folgender, außergewöhnlichen Bemerkung: Ein konfiguriertes Widget einer Seitenleiste in den Abstellbereich („Inaktive Widgets“) ziehen und wieder zurĂŒck in die Seitenleiste – hiemit war die Konfigurierung wieder funktionsgemĂ€ĂŸ. Ob dies auch vorherigen DurchfĂŒhrung des Bugfix funktioniert hĂ€tte, kann ich nicht schreiben, wĂ€re evtl. die sofotige Lösung gewesen – edv ebd. – Nebenher waren auch die einzelnen Webseiten nicht mehr verlinkt, also nicht aufrufbar (welche Ungereimtheit auch durch andere Umstellungen mal möglich ist), aber dies ist leicht unter Dashboard/Einstellungen/Permalinks unter Abspeicherung auf „Einfach“ und erneuter Abspeicherung vorheriger Version erledigt.

5

Die rel-Attribute fĂŒr Links

Mit den rel-Attriputen lassen sich die Links einstellen.

Bspw. rel="nofollow"

Das rel="nofollow" im lÀsst die Suchmaschinen davon abhalten, diesem Link in Hinsicht Backlink zu folgen.

<a href="http://www.domainname.net" target="_blank" rel="nofollow noopener noreferrer">Text, Text, Text</a>

Überblick

REL-ATTRIBUTE FÜR BESSERE HTML-LINKS

Im Folgenden ist die Autorin Diana Vogt divo-webdesign zu nennen. Da die Webseite in der Form nicht mehr vorhanden ist, folgte die Nachfrage. Als dass dem EinverstÀndnis zur Veröffentlichung wurde mir der Artikel zugesendet. Vielen Dank möchten wir Frau Diana Vogt senden! Hiermit im Titel HTML-Links verbessern: So setzt man rel-Attribute richtig ein.


 u. a. ganz nett mal in eigener Weibiste ein Bild (welches vermutlich zur VergrĂ¶ĂŸerung angeklickt wird), vorab laden zu lassen, um es flugs darzustellen, s. Das rel=“prefetch“ Attribut.

Wichtig: Das Attribut ’noopener'

Hervorragend Dokumentiert im Titel Links sicher auszeichnen mit „noopener“.

Neue rel-Attribute

Im Titel Google fĂŒhrt neue rel Attribute ein.

6

Die Robots.txt-Datei

Die Suchmaschinen zur Indexierung der Website ein- oder ausladen erfolgt ĂŒber die virtuelle Robots.txt von WordPress im Dashboard/Einstellungen/Lesen „Sichtbarkeit fĂŒr Suchmaschinen“ und entsprechendem HĂ€kchen.

Da die so genannt Robots.txt einfache Sache ist, möchte ich nur so viel wie eine kleine, aber informative Zusammenfassung anbieten, welche Inhalts im Internet zu finden sind und jedem Link Àhnlich sind.

Grundlagen: selfhtml.org

Schöne, einfache Beschreibung von https://zoechbauer.name/die-robots-txt-datei-von-wordpress-bearbeiten/ u. a. mit Plug-in Hinweis, wenn man keinen direkten Zugriff auf dem Webserver hat.

Hindurch Robots.txt sind Dateien, Verzeichnisse auch die gesamte Webseite den Suchmaschinen auszuschließen. Die Crawler können ĂŒber die Robots.txt gesteuert werden, beispielsweise, „Bingbot“ zulassen und „Googlebot“ nicht mit einbeziehen.

Grundlegend ist die Aufgabe der Robots.txt, den Crawlern anzuweisen, was mit dem Inhalt zu tun ist. Es hĂ€lt die Suchmaschinenrobots nicht davon ab, Seiten und Inhalte zu crawlen. Die Robots.txt ist kein Zugriffsschutz fĂŒr Dateien, hierzu ist der Paßwortschutz im Editor anzuwenden. Die Robots sind nicht verpflichtet, die Website zu crawlen.

Die Robots.txt lĂ€sst sich zur Ansicht ĂŒber URL/robots.txt aufrufen, z. B. des Codes unter Ausschluss der Suchmaschinen wird angezeigt:

User-agent: *
Disallow: /

Des Weiteren, schematisch: Praxis-Tipps (nicht nur) fĂŒr Einsteiger, edv-beratung-thomas.de/index.htm?ti-seo-13-robots-txt.html

Robots.txt-Datei und Unterordner „wordpress“

Mit Adresse von 1und1.at/digitalguide/hosting/hosting-technik/indexierungsmanagement-mit-der-robotstxt/, s. Robots.txt erstellen: FĂŒr Crawling-Zielsetzung der Domain example.net muss sich die Robots.txt im selben Verzeichnis befinden wie www.example.net. Über den Web-Browser wĂ€re eine solche Datei unter www.example.net/robots.txt abrufbar. Bietet das Serverprogramm des Host keinen Zugriff auf das Root-Verzeichnis, sondern nur auf einen Unterordner (wie etwa www.example.de/benutzer/), sind Indexierungsregeln mittels Robots.txt nicht möglich.

Die Robots.txt ist im Ordner hochzuladen, wo sich WordPress befindet: … weiß man eben –. aber auch Dashboard/Einstellungen/Lesen das HĂ€kchen zum Ausschluss der Suchmaschinen entfernen? Eigentlich mĂŒsste das nicht sein, weil Selbige durch die erstellte, selbststĂ€ndige Robots.txt ĂŒberschrieben wird?

Ebd. Lehrreich:

OriginĂ€r folgenden Hinweis: Die virtuelle robots.txt kann man auch ohne Plug-in erweitern. Wie man die robots.txt mit Plug-in bearbeitet, ist im Artikel „Die robots.txt Datei von WordPress bearbeiten“ beschrieben. Zum Anlegen der virtuellen robots.txt nutzt WordPress die Funktion do_robots(). In der WordPress Version 4.2.2 finden wir diese Funktion in den Core 
 s. https://zoechbauer.name/eintraege-zur-virtuellen-robots-txt-von-wordpress-ohne-plugin-hinzufuegen/

Vor dem fri­ckeln – (Ă€h) editieren in den Dateien am Web-Host-Server immer vorerst betreffende Datei – Dateisicherung.

S. auch Mehrfacher Contentrisiko beseitigen; im WordPress Duplicate Content finden.

Beispiel einer Robots.txt-Datei fĂŒr WordPress

Eine Datei namens robots.txt ist neben der virtuellen Robots.txt von WordPress eine eigens, selbst zu erstellende Datei, welche auch ein weiterer Punkt zur WP-Sicherheit ist, s. fastwp.de/2766/ „Standard robot.txt fĂŒr WordPress“. Diese „Standard“ Robots.txt-Datei ist mit einigen speziellen Codes im Zusammenspiel mit FastWP SEO Snippet fastwp.de/2161/zu verstehen, s. hierzu auch Tab Meta/SEO Meta-Tags.

Robots.txt-Datei des Weiteren

Website(n) den Suchmaschinen ausschließen 

und wie z. B. alle „Seiten“, als „page“, nicht geht.

Das Ausschließen von Webseiten muss mit dem Verzeichnispfad der URL zusammenhĂ€ngen.

User-agent: *
Disallow: /page/ oder
Disallow: /wp-page/* usw. funktioniert mitnichten.

… außer die URL hat selbigen Namen.

Also mitziehend eines Thema mehrere  zusammenhĂ€ngende „Seiten“ ausschließen:

Die erwĂŒnschte Titelseite des Themas im Editor unter Seiten-Attribute/Eltern als „Hauptseite (keine Übergeordnete)“ zuordnen und die jeweilig folgenden Seiten des Themas unter Eltern der Hauptseite zuweisen.

Somit sind Beispiels:

  • domain.net/vogel/
  • domain.net/vogel/uhu/
  • domain.net/vogel/uhu/bubo-bubo/
  • usw.

in Robots.txt mit

User-agent: *
Disallow: /vogel/*/*


 die Hauptseite und alle untergeordneten „Seiten“ der Indexierung ausgeschlossen.

Robots.txt-Datei Testen

Robots.txt Tester

tool.motoricerca.info/robots-checker.phtml

Robots.txt Tester

searchenginepromotionhelp.com/m/robots-text-tester/robots-checker.php

Die Tester widersprechen sich in den Ergebnissen, welche der Auszeichnungen in Zusammenfassung, z. B.:

User-agent: EnigmaBot
User-agent: INGRID/0.1
User-agent: linklooker
Disallow: /

oder

User-agent: EnigmaBot
Disallow: /

User-agent: INGRID/0.1
Disallow: /

User-agent: linklooker
Disallow: /

… jeweils pro Agent in extra Auszeichnung richtig ist. In Summe, folgenden Links (ÜberprĂŒfung der Robots.txt-Datei) ist nachvollziehbar, dass beiderlei Versionen ansprechen.

ÜberprĂŒfung der Robots.txt-Dateien

Robots.txt Test Tool

OriginĂ€r, obigen Link folgend: Bevor die robots.txt in das Root-Verzeichnis der Website raufgeladen wird, sollte der Nutzer stets ihre Korrektheit prĂŒfen. Der kleinste Fehler kann dazu fĂŒhren, dass der Bot die Vorgaben ĂŒbergeht und ggf. Seiten einliest, die nicht im Suchmaschinenindex dazu kommen sollen. Hierzu die URL eingeben und den jeweiligen User Agent auswĂ€hlen. Nach dem Klick auf “PrĂŒfung starten” ĂŒberprĂŒft das Tool, ob das Crawling fĂŒr die angegebene URL fĂŒr den Bot erlaubt ist oder nicht.

Ungewollte Bots

Evtl. „Simple Falle fĂŒr ungewollte Bots“? – Plug-in Hinweis fastwp.de/8536/ Plug-in Blackhole: Beschreibung, Insatallation und FAQ s. hier im nĂ€chsten Tab.

BotsReport

Des Themas im Allgemeinen informativ,  u. a. botreports.com/i/iaarchiver.shtml

z. B. ia_archiver ausschließen:

User-agent: ia_archiver
Disallow: /

Kl. Merkzettel zur AufschlĂŒsselung

Ohne / am Ende sind alle nachfolgenden Dateien mit eingeschlossen.

Disallow: /wp-admin
Die Administrations-Umgebung von WordPress

Disallow: /wp-includes
Die Gesamtheit der WordPress-Anwendungslogik

Disallow: /wp-content
wp-content/plugins usw.

Allow: /wp-content/uploads
Vom Nutzer hinzugefĂŒgter Inhalt

Aktuell: https://wegerl.at/robots.txt

6a

Bild, pixel2013_ampel

Plug-in
Blackhole,
Beschreibung, Installation und FAQ originĂ€r Plug-in Blackhole in Übersetzung (Google).

 Beschreibung 

FĂŒge deine eigene virtuelle Blackhole-Falle fĂŒr unerwĂŒnschte Bots hinzu. Das Blackhole Plugin enthĂ€lt einen versteckten Link zu Ihren Seiten. Sie fĂŒgen dann eine Zeile zu Ihrer robots.txt-Datei hinzu, die Bots davon abhĂ€lt, dem versteckten Link zu folgen. Bots, die deine Roboterregeln ignorieren oder nicht gehorchen, werden den Link kriechen und in die Honeypot-Falle fallen. Sobald gefangen, ungewollte Bots verweigert weiteren Zugriff auf Ihre WordPress-powered Website.

Ich nenne es die „one-strike“ -Regel: Bots haben eine Chance, deiner Seite die robots.txt-Regel zu befolgen. Nichteinhaltung der Ergebnisse bei sofortiger Verbannung. Der beste Teil ist, dass die Blackhole nur aufdringlichen Bots wirkt: menschliche Benutzer sehen nie die versteckte Verbindung, und gute Bots befolgen die Roboter Regeln auf dem ersten Platz. Win-Win! :)

Verwenden eines Caching-Plugins? Schauen Sie sich die Installationshinweise fĂŒr wichtige Informationen an.

Eigenschaften

Whitelist

StandardmĂ€ĂŸig blockiert dieses Plugin keine der großen Suchmaschinen:

AOL.com
Baidu
Bingbot / MSN
DuckDuckGo
Googlebot
Teoma
Yahoo!
Yandex

Diese Suchmaschinen (und alle ihre unzÀhligen Variationen) sind Whitelist. Sie haben immer den vollen Zugriff auf Ihre Website erlaubt, auch wenn sie Ihren robots.txt Regeln nicht gehorchen. Diese Liste kann in den Plugin-Einstellungen angepasst werden.

Header Image Courtesy NASA / JPL-Caltech.

 Installation 

Installieren Blackhole fĂŒr ungewollte Bots

  • Laden Sie das Blackhole Plugin auf Ihr Blog und aktivieren Sie es
  • Besuchen Sie die Blackhole-Einstellungen und kopieren Sie die Roboter-Regeln
  • FĂŒge die Roboterregeln deiner robots.txt-Datei deinesorts hinzu
  • Konfiguriere die Blackhole-Einstellungen wie gewĂŒnscht und fertig.

FĂŒr eine vollstĂ€ndige Dokumentation klicken Sie auf die Registerkarte „Hilfe“ in der oberen rechten Ecke des Blackhole-Einstellungsbildschirms. Hilfe-Registerkarte auch auf dem Bildschirm „Bad Bots“.


Keine robots.txt

Wenn Ihre Website keine robots.txt-Datei hat, können Sie eine wie folgt erstellen:

  • FĂŒgen Sie dem Stammverzeichnis Ihrer Website eine leere Textdatei hinzu.
  • Benennen Sie die Textdatei, robots.txt und laden Sie auf Ihren Server hoch.

Erledigt. Weitere Informationen finden Sie im nÀchsten Abschnitt und validieren Sie Ihre robots.txt-Datei.

Roboter Werkzeuge & Info

Erfahren Sie mehr ĂŒber robots.txt, s. diesen Beitrag
ÜberprĂŒfe deine robots.txt-Datei, s. Hinweise diesen Beitrag
ÜberprĂŒfen Sie robots.txt in Google Webmaster-Tools

Caching-Plugins

Blackhole fĂŒr Bad Bots ist noch nicht mit allen Caching-Plugins und Scripts getestet. So kann es nicht mit allen kompatibel sein. Hier ist eine Liste der bekannten kompatiblen Caching-Plugins und die erforderlichen Schritte fĂŒr die volle KompatibilitĂ€t:

  • WP Schnellster Cache – FĂŒge die Blackhole Trigger URL zur Cache-Ignorierliste hinzu
  • Melden Sie ein anderes Caching-Plugin

Wenn Sie ein Caching-Plugin oder Skript verwenden und Blackhole nicht funktioniert, können Sie eine der folgenden Lösungen ausprobieren:

  • FĂŒgen Sie die Blackhole-URL (verfĂŒgbar ĂŒber die „Robots Rules“ -Einstellung) zu Ihrem Caching-Plugin „ignorieren“ Liste
  • FĂŒgen Sie die IP (s) Ihres Caching-Skripts oder Load Balancer zur Blackhole-Einstellung hinzu, „Whitelisted IPs“

Wenn keiner dieser Tricks funktioniert, empfiehlt es sich, das Plugin zu deaktivieren. Bitte grĂŒndlich prĂŒfen (siehe nĂ€chster Abschnitt fĂŒr weitere Infos).

Testen

Um zu testen, dass die Blackhole-Trap funktioniert, sehen Sie den Quellcode einer beliebigen Webseite auf Ihrer Website. Scrollen Sie nach unten in die Fußzeile der Seite, bis Sie einen Link finden, der folgend Ă€hnelt:

<a rel="nofollow" style="display:none;" href="https://example.com/?blackhole=1234567890" title="Blackhole for Bad Bots">Do NOT follow this link or you will be banned from the site! (NICHT folge diesem Link oder du wirst von der Seite verboten!)</a>

Klicken Sie auf den Link (den Wert href), um die Warnmeldung anzuzeigen. Nachdem Sie die Warnmeldung besucht haben, aktualisieren Sie die Seite, um die Nachricht Zugriff verweigert anzuzeigen. Und/oder besuchen Sie eine andere Seite auf der Vorderseite Ihrer Website zu ĂŒberprĂŒfen, dass Sie verboten wurden. Aber mach dir keine Sorgen, du wirst nie aus dem WP Admin Bereich oder der WP Login Seite verboten werden. So einfach anmelden und entfernen Sie Ihre IP-Adresse aus der Bad Bots-Liste, um Front-End-Zugriff wiederherzustellen.

Whitelist Bots

Blackhole fĂŒr Bad Bots wird streng getestet, um sicherzustellen, dass die Top-Suchmaschinen-Bots sind NIEMALS BLOCKED. Alle Bots, die einen User Agent melden, der eine der folgenden Zeichenfolgen enthĂ€lt, haben immer Zugriff auf Ihre Website, auch wenn sie robots.txt nicht gehorchen.

aolbuild, baidu, bingbot, bingpreview, msnbot, duckduckgo, adsbot-google, googlebot, mediapartners-google, teoma, slurp, yandex

NatĂŒrlich ist diese Liste ĂŒber die Plugin-Einstellungen komplett anpassbar. Jeder hinzugefĂŒgte String wird mit dem vollstĂ€ndigen User-Agenten abgeglichen, also sei vorsichtig. Erfahren Sie mehr ĂŒber User-Agenten der Top-Suchmaschinen. perishablepress.com/list-all-user-agents-top-search-engines/

Sie können auch Whotsist Bots nach IP-Adresse. Besuchen Sie die Einstellung „Whitelisted IPs“ und geben Sie die IP-Adresse ein (separate IPs mit Kommas trennen). Sie können auch ganze Sortimente von IPs whitelist. In der gleichen Plugin-Einstellung fĂŒge noch etwas hinzu:

123.456.

Das wird es erlauben, dass alle Bots eine IP-Adresse melden, die mit 123.456 beginnt.

Customizing (Anpassen)

Blackhole bietet viele Haken zum Anpassen und Ausbauen:

Benutzerdefinierte Warnvorlage

Das Blackhole zeigt zwei Arten von Nachrichten an:

  • Warnmeldung – Wird angezeigt, wenn Bots dem Blackhole Trigger Link folgen.
  • Gesperrte Nachricht – Wird fĂŒr alle Anfragen von blockierten Bots angezeigt.

Die gesperrte Nachricht kann ĂŒber die Plugin-Einstellungen angepasst werden. Die Warnmeldung kann durch die Einrichtung einer benutzerdefinierten Vorlage angepasst werden:

  • Kopiere blackhole-template.php aus dem Plugin / Inc / Verzeichnis
  • FĂŒgen Sie die Datei in Ihre Themenvorlage ein, zB: /wp-content/my-awesome-theme/blackhole-template.php
  • Passen Sie einen der Markup zwischen „BEGIN TEMPLATE“ und „END TEMPLATE“
  • Laden Sie auf Ihren Server und fertig.

Wenn die benutzerdefinierte Vorlage in Ihrem Themenverzeichnis vorhanden ist, wird das Plugin automatisch verwendet, um die Warnmeldung anzuzeigen. Wenn die benutzerdefinierte Vorlage nicht in Ihrem Themenverzeichnis vorhanden ist, wird das Plugin auf die Standard-Warnmeldung zurĂŒckfallen.

Weitere Optionen in der Pro-Version, s. unten.

Deinstallieren

Blackhole fĂŒr schlechte Bots reinigt sich nach sich selbst. Alle Plugin-Einstellungen und die schlechte Bot-Liste werden aus der Datenbank entfernt, wenn das Plugin ĂŒber den Plugins-Bildschirm deinstalliert wird.

 FAQ 

Welche anderen Sicherheits-Plugins empfehlen Sie?

Ich habe vor kurzem eine Video-Tutorial-Serie fĂŒr Lynda.com auf, wie man WordPress Websites zu sichern. Das ist ein guter Ort, um mehr ĂŒber die besten Techniken und WP-Plugins fĂŒr den Schutz Ihrer Website vor Bedrohungen zu lernen.

Wie ist dieses Plugin anders als eine Firewall?

Blackhole nutzt seine eigene „smart bot technology“, die nur Bots blockiert, wenn sie schlechtes Verhalten gezeigt haben. Firewalls sind typischerweise „statisch“ und Blockanforderungen auf der Grundlage eines vordefinierten Satzes von Mustern. Das bedeutet, dass Firewalls manchmal legitime Besucher blockieren. Blackhole blockiert nie regelmĂ€ĂŸige Besucher, und nur es blockiert Bots, die den Robots.txt-Regeln deiner Seite nicht gehorchen. Also ist die Rate der falschen Positiven nahe Null.

Der Triggerlink erscheint nicht im Quellcode meiner Seiten.

Damit das Plugin den Trigger-Link zu deinen Seiten hinzufĂŒgen kann, muss dein Thema das Template-Tag wp_footer () enthalten. Dies ist ein empfohlenes Tag fĂŒr alle WordPress Themen, so dass Ihr Thema sollte es enthalten. Wenn nicht, können Sie es selbst hinzufĂŒgen oder sich mit dem Theme-Entwickler in Verbindung setzen und um Hilfe bitten. Hier finden Sie weitere Informationen ĂŒber wp_footer (). Sobald das Footer-Tag enthalten ist, kann das Plugin den Trigger-Link zu Ihren Seiten hinzufĂŒgen.

Wird das gute Bots wie Google und Bing blockieren?

Nein niemals. Alle großen Suchmaschinen-Bots sind Whitelist und werden niemals blockiert. Sofern Sie sie nicht aus der Whitelist-Einstellung entfernen, was nicht empfohlen wird.

Ich denke, das Plugin blockiert Chrome, Firefox, etc.?

Unmöglich, weil das Plugin niemals von User Agent blockiert. Es blockiert nur per IP-Adresse. Es werden keine anderen Kriterien verwendet, um etwas zu blockieren.

Ist es möglich, einige Bots zu blockieren, indem man sie nur zu blockierten Liste hinzufĂŒgt und ihnen den Zugriff auf meine Website verweigert?

Nicht möglich mit der kostenlosen Version, aber die Pro-Version enthĂ€lt eine einfache Möglichkeit, Bots manuell hinzuzufĂŒgen (ĂŒber das Bad Bot Log).

Wie fĂŒge ich der Whitelist weitere Bots hinzu?

Besuchen Sie die Plugin-Einstellungen und fĂŒgen Sie der Liste hinzu.

Wie kann ich die Liste der blockierten Bots zurĂŒcksetzen?

Besuchen Sie die Plugin-Einstellungen und klicken Sie auf die SchaltflÀche.

Wie lösche ich das Beispiel / default bot aus dem Protokoll?

Nicht möglich mit der kostenlosen Version, kann aber mit der Pro Version arbeiten.

Wie kann ich die E-Mail-Benachrichtigungen deaktivieren?

Besuchen Sie die Plugin-Einstellungen und klicken Sie auf die SchaltflÀche.

Gibt es eine eigenstÀndige Version des Blackhole?

Ja. Besuchen Sie Perishable Press, um eine PHP-basierte Version herunterzuladen https://perishablepress.com/blackhole-bad-bots/, die WordPress nicht benötigt.

Gibt es eine Pro-Version von Blackhole?

Ja, die Pro-Version ist bei Plugin Planet erhÀltlich.

Wird Multisite unterstĂŒtzt?

Noch nicht, aber es ist auf der To-do-Liste.

Kann ich den Blackhole Link manuell einschließen?

Ja, Sie können den folgenden Code ĂŒberall in Ihrer Themenvorlage hinzufĂŒgen:

<?php if (function_exists('blackhole_trigger')) blackhole_trigger(); ?>
Sollten Whitelist Bots genaue Namen enthalten oder kann ich nur Teilnamen verwenden?

Sie können Teilnamen oder vollstĂ€ndige Namen verwenden, je nachdem, wie spezifisch Sie mit Blocking sein möchten. Wenn man sich die standardmĂ€ĂŸigen Whitelist-Bits ansieht, wird man sehen, dass es sich nur um Teile des vollstĂ€ndigen User-Agenten handelt. So können Sie z. B. alle Bots blockieren, die den String „whateverbot“ enthalten, indem er diesen String in die Whitelist-Einstellung einfĂŒgt. Es macht es einfacher, Bots zu blockieren, aber man muss vorsichtig sein mit falschen Positiven.

Was ist mit WordPress automatisch (versteckt) robots.txt?

StandardmĂ€ĂŸig wird WordPress automatisch eine versteckte „virtuelle“ robots.txt-Datei auf alles, was es anfordert, bedienen. Sobald Sie Ihre eigene „echte“ robots.txt Datei hinzufĂŒgen, wird WordPress aufhören, die virtuelle zu erzeugen. Also, wenn es um WordPress und robots.txt geht, echte TrĂŒmpfe virtuell. Blackhole Pro erfordert, dass Sie einige Regeln zu einer tatsĂ€chlichen robots.txt-Datei hinzufĂŒgen, aber es erstellt/fĂŒgt keine Roboter-Regeln oder die robots.txt-Datei fĂŒr Sie hinzu. Schauen Sie sich die Registerkarte des Plugins fĂŒr mehr Infos an.

Welche WP-Caching-Plugins sind mit Blackhole kompatibel?

Blackhole fĂŒr Bad Bots ist noch nicht mit allen Caching-Plugins und Scripts getestet. So kann es nicht mit allen kompatibel sein. Hier ist eine Liste der bekannten kompatiblen Caching-Plugins und die erforderlichen Schritte fĂŒr die volle KompatibilitĂ€t:

  • WP Schnellster Cache – FĂŒge die Blackhole Trigger URL zur Cache-Ignorierliste hinzu
  • Melden Sie ein anderes Caching-Plugin.

Wenn Sie ein Caching-Plugin oder Skript verwenden und Blackhole nicht funktioniert, können Sie eine der folgenden Lösungen ausprobieren:

  • FĂŒgen Sie die Blackhole-URL (verfĂŒgbar ĂŒber die „Robots Rules“ -Einstellung) zu Ihrem Caching-Plugin „ignorieren“ Liste
  • FĂŒgen Sie die IP (s) Ihres Caching-Skripts oder Load Balancer zur Blackhole-Einstellung hinzu, „Whitelisted IPs“
  • Wenn keiner dieser Tricks funktioniert, empfiehlt es sich, das Plugin zu deaktivieren.

Weiteres, Frage, Feedback? – siehe Plug-in FAQ .

BLACKHOLE FREE VS PRO

Starker Schutz gegen schlechte Bots ✓ ✓
Arbeitet mit SSL / HTTPS ✓ ✓
Funktioniert auf jedem WP-fĂ€higen Server (z. B. Apache, Nginx, Windows) ✓ ✓
.htaccess NICHT erforderlich! ✓ ✓
Leicht, schnell und flexibel ✓ ✓
Funktioniert mit anderen Sicherheits-Plugins ✓ ✓
Ein-Klick-Wiederherstellung der Standardeinstellungen ✓ ✓
Kompatibel mit WP Schnellster Cache ✓ ✓
Option zum Deaktivieren fĂŒr angemeldeten Benutzer ✓
Schwellensteuerung (Anzahl der zulĂ€ssigen Treffer) ✓
Kundenspezifische E-Mail-Benachrichtigungen ✓
Benutzerdefinierte Nachrichten fĂŒr blockierte Bots ✓
Benutzerdefinierte Umleitung fĂŒr blockierte Bots ✓
Benutzerdefinierte Blackhole Trigger Links ✓
VollstĂ€ndige Inline-Dokumentation ✓
Whitelist Bots von User Agent ✓
Whitelist Bots nach IP Adresse ✓
Umleitungs-Whitelist-Bots ✓
Setzen Sie den benutzerdefinierten HTTP-Statuscode ✓
Full-featured Bot Log mit Paging, Sortierung und Feldsuche ✓
FĂŒge schlechte Bots direkt zum Bad Bot Log hinzu ✓
Geo / IP-Standort-Lookups fĂŒr jeden schlechten Bot ✓
Protokolliert die Anzahl der gesperrten Treffer fĂŒr jeden Bot ✓

7

Eine Seite den Suchmaschinen ausschließen

u. a.  Code fĂŒr die robots.txt

Beispw. die Seite fĂŒr das „Impressum“ den Suchmaschinen ausschließen, siehe bitte: texto.de/tipp-wie-man-seiten-aus-google-effektiv-ausschliesst-790/

Cachen des Inhalts (Anlegen einer Kopie des Inhals) den Suchmaschinen ausladen

Möchte man das Cachen (Anlegen einer Kopie) in den Suchmaschinen ausschließen, in der header.php im <head> zu den Meta Elementen hinzufĂŒgen:

<meta name='robots' content='noarchive'>

8

Bug! – Konfigurierbarkeit der Widgets


 im Zusammenhang des Sippets: „Kurze Wörter automatisch aus URL entfernen.“

Hier möchte ich fĂŒr das Snippet: „Kurze Wörter automatisch aus URL entfernen“, s. fastwp.de/1997/, unbedingt anmerken: Das Snippet bewirkte meiner Website einen Bug.

Also, nach werkeln (editieren) in der functions.php und folgenden Errors sowie deren Richtigstellung, hielt ich nachschau, wie es wohl den Widgets geht: Hier waren die konfigurierten Widgets verschwunden, und haben sich nicht erneut erstellen lassen. D. h., einrichten konnte man die Widgets, aber bei erneuter Ladung der Seite zur Erstellung der Widgets waren diese wiederum weg. Nach Eingrenzung der Möglichkeiten, ĂŒber Deaktivieren der Plug-ins stellte sich heraus, dass es im Plug-in Code Snippets (wo die Snippets fĂŒr die functions.php abgespeichert sind) zu finden ist, und, ja, der besagte Code (Kurze Wörter automatisch aus URL entfernen) in GegenprĂŒfung war der Fehler.

Indessen meiner Anmerkung im Artikel auf der Website FastWP, hatte David nach Freischaltung des Kommentars dieses nĂ€chsten Tags wieder gelöscht. Hiermit liegt der Schluss nahe, dass der Fehler des Snippets „Kurze Wörter automatisch aus URL entfernen“ im Zusammenhang mit anderem Snippet evtl. Plug-in den Bug hervorruft.

9

Anmerkung betreffend „lĂ€ngerer URL“:

Im Abspeichern des Beitrags folgt gleich dem Titel die URL. Diese kann dann hĂ€ndisch angepasst werden. Des lĂ€ngerem Titels sind die Schlagworte fĂŒr die URL zu reduzieren. S. Editor unter der Titelzeile, Permalink: 'Bearbeiten'.

UND, wie war der Anfang?

Die Suchmaschine „bing“ habe ich mit MĂ€rz 17 meiner Website eingeladen. – Dem Suchbegriff wegerl bplaced (seinerzeit war bplaced in der URL inbegriffen) wird die Seite zuvorderst gereiht ;-) Die Textliche BeifĂŒgung, aber: Hier sollte eine Beschreibung angezeigt werden, diese Seite lĂ€sst dies jedoch nicht zu, 

Hilfe: Durch Anmeldung bei Google mithin Search Console: Lesen, Intuition und Geduld. Dto. fĂŒr Bing und Yahoo

↑ TabmenĂŒÂ 

Feedback zum Beitrag

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

DSGVO: Blog Website wegerl.at bedient sich dem Dienst Gravatar der Automattic Inc. In Angabe der E-Mail-Adresse, welche deiner Nutzung von Gravatar, erfolgt der Service nach Art. 6 Abs. 1 lit. f) DSGVO. Also nachdem dein Kommentar von wegerl.at freigegeben wurde, ist dein Profilbild öffentlich im Kontext deines Kommentars sichtbar.