Willkommen beim WP Wegerl.at 'Lesemodus'!
Entspanntes Lesen und spannende Artikel warten auf dich.
Entdecke unsere besten Beiträge und genieße den Lesemodus.
smilies.4-user.de

Ein Etwas an SEO.
Das ist fürs Erste sehr gut

pixabay, Amigos3D
Info echo
OpenClipart-Vectors-katze-1

Ist der Classic-Editor schon zu kennen? –
"Advanced Editor Tools – ist so klasse!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-2

Anklickt Classic-Editor mit Advanced Editor Tools
"Advanced Editor Tools – ist das ausgezeichnete!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-3

Klassischen Editor anwenden! – und …
"Advanced Editor Tools – ist so sehr gut !"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-7

… die Welt gehört dem, der sie genießt.
"Advanced Editor Tools – und tut sehr gut!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-4

Advanced Editor Tools aktive Installationen: 2+ Millionen
"Advanced Editor Tools – ist so fabelhaft!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-5

Ansprechend! – so gehts hier zur Lancierung
"Advanced Editor Tools – ist de luxe!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-6

… und NEU! – Classic Widgets
"Classic Widgets – sind so grandiose!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Info echo
OpenClipart-Vectors-katze-8a

Werkraum ist Werkraum und Frontend ist Frontend
Katzen SVG OpenClipart-Vectors; Ticker von Ditty News Ticker
"Advanced Editor Tools – ist so fein!"
Anklickt! – Advanced Editor Tools; und NEU! – Classic Widgets

Die Optimierung für Suchmaschinen ist ein zentrales Thema für Webmaster! SEO ist der Schlüssel zum Erfolg für ambitionierte Websites, und es gibt keinen endgültigen Abschluss in diesem Bereich. In diesem Beitrag behandeln wir vorerst einige wichtige Aspekte der SEO. Dazu gehören Begriffe wie Duplicate Content, Last-Modified Header für WordPress, XML-Sitemap, SEO Meta-Tags, rel-Attribute für Links, Robots.txt-Datei, das Plug-in Blackhole sowie Methoden zum Ausschluss von Seiten von Suchmaschinen.

* SEO heißt Suchmaschinen-Optimierung, in englisch search engine optimization (SEO). Webseiten deren Inhalte werden im organischen Suchmaschinenranking (Natural Listings) auf angemessenen Plätzen erscheinen –. So, die positive Erwartung des Anwenders.

Inhaltsverzeichnis zur SEO

Tab 1: Erst mal ein paar Worte zum Begriff 'Doublierten Content'
Tab 2: Der Last-Modified Header
Tab 3: Die ’sitemap.xml' für die Suchmaschinen
Tab 4: Das Plug-in 'Slim SEO'. Info zur den 'Meta-Elementen'. Und Anstatt von Plug-in ein Snippet für die functions.php und header.php.
Tab 5: Die 'rel-Attribute' für die Auszeichnung der Links.
Tab 6: Die 'Robots.txt' und Bots effektiv ausladen
Tab 7: Den Suchmaschinen einen Beitrag ausschließen
Tab 8: … 'kleiner' Erfahrungswert. Das mit den kurzen Wörter aus der URL entfernen …
Tab 9: Die URL kürzen.

1

Dublierter Content

Abgesehen von rechtlicher Konsequenz der [(fast) exakte] Kopie eines Textes anderer Website ist Abstand zu nehmen.

Suchmaschinen analysieren den Inhalt und erkennen doppelten oder mehrfach vorhandenen Text. Wenn identischer Text auf verschiedenen Websites zu finden ist, werden die Suchmaschinen die entsprechenden Fundstellen auswählen. Dadurch kann es passieren, dass die Website des ursprünglichen Autors in den Suchergebnissen nicht auf dem aktuellen Stand erscheint und möglicherweise aus dem Index entfernt wird. Gleichzeitig wird der Text von einer anderen Website als (Pseudo-)Autor angezeigt.

Es ist jedoch möglich, eine Kopie eines Textes mit Erlaubnis des Autors zu verwenden, vorausgesetzt, es wird ein Link zur ursprünglichen Website hinzugefügt. Dadurch erkennen die Suchmaschinen den doppelten Text als fundiert an, und beide Websites werden als legitim angesehen

Für kurzen Textauszug zur Dokumentation mit Link und namentlichen Hinweis zum Autor, wird es auch ohne Nachfrage zur Fairness gereichen. – gleich wie auch die namentliche Nennung von Zitat dazugehört.

2

Last-Modified Header für WordPress

Was ist der 'if-modified-since-Header' und wie ist das zu verstehen? Dieser Fragestellung möchte ich hier auf die Sprünge helfen. Der Recherche nun Folgendes.

Der 'if-modified-since-Header' ist ein Datenfeld in der HTTP-Kommunikation zwischen dem Server und den Clients. Die Clients das sind die Browser und die Suchmaschinen-Crawler.

  • Greift ein Client auf einen Server zu, der dieses Header-Datenfeld unterstützt, wird die 'Bedingung' überprüft. Demnach ist das am Server die Überprüfung der Inhalte, ob sich diese seit dem letzten Zugriff geändert haben.
  • Wenn dort die Inhalte nicht verändert sind, sendet der Server den Status Code 304, um dem Client mitzuteilen, dass er die Inhalte nicht laden muss. Der Client wird hiermit die gecachte Version der Website laden.
  • Bei Crawlern ist dies die Version, die als letztes abgerufen wurde; bei Browsern ist es die Version, die seit dem ersten Ladevorgang im Cache des Browser ist.

Gemäß den Google Webmaster Guidelines ist die Verwendung des 'if-modified-since Headers' in Empfehlung, denn hiermit braucht der Crawler die Ressource nicht laden.

Der Textauszug ist von der Website  RYTE WIKI  und sehr weiterführend in dem Titel if-modified-since. D. h. erst mal lesen! – weil das gehört hier zum Beitrag.   

Das Plug-in Last-Modified Header

Mit dem Plug-in WP Last Modified Info und dem Beitrag Aktualisierungsdatum – WP Last Modified Info kann detaillierte Informationen zum Aktualisierungsdatum erhalten werden.

Das Plug-in ermöglicht das automatische Senden des HTTP-Headers "Zuletzt geändert". Es besteht die Möglichkeit, entweder die Zeit nach der letzten Änderung oder das Erstellungsdatum zu verwenden. Die entsprechenden Einstellungen können in der Verwaltung vorgenommen werden.

…dann zur Überprüfung

Zum Überprüfungstool REDbot für HTTP-Ressourcen. Es testet die Protokollkorrektheit, Cachefähigkeit, Inhaltsverhandlung und mehr. Siehe dazu das Bild 'HTTP/1.1 200 OK' unten im Scroller.

Interview mit Miro von bplaced_blue

In Anfänge des Themas habe ich mich an den Host-Support gewandt. Das Ganze da war damals im Zusamenhang des Plug-ins Last modified header. Das ist ein Plug-in welches anderseits Porbleme machte und von damals.

Warum steht das Last-Modified Header auf 1. Jänner 1970

01.01.1970 ist der Unix-Zeitstempel null, schau mal hier:
de.wikipedia.org/wiki/Unixzeit

Das ist quasi der geringste Zeitwert, der in diesem 'header' angegeben werden kann. Die Info, dass last-modified so alt ist deutet also darauf hin, dass die Datei nicht aktualisiert (und damit erneut heruntergeladen) werden müsste. Üblicher weise wird dies allerdings auf echte Werte gesetzt, z.B. auf das Alter eines Bildes oder das Änderungsdatum eines Dokuments.

1970, das ist eine Plan-B-Antwort, falls dieser Zeitstempel nicht zu ermitteln war.

Wird der Last-Modifield Header für jede Seite / Beitrag extra ausgeliefert? Oder ist das nur für die Website im gesamten.

Der Last Modified Header erfolgt für 'jede' Datei, die angefragt wurde. Das sind die JavaScripte, HTML-Dateien, Bilder, sonstige Downloads usw. Denn in jeder Datei für sich können Caching-Infos sein.

Daher ist die Verwendung dieser Header meist auf Bilder / Scripte / Videos beschränkt. Diese auch eine gewisse Größe haben, um sich hier das erneute Herunterladen zu sparen.

…nun mit dem Plug-in
da funkt das mit dem Last Modified Header

SEO Last-Modified

Ja, wobei das den Beitrag selbst betrifft. Ich gehe davon aus, dass Suchmaschinen diese Inhalte immer laden. Auch Besucher, denn darin ist ja HTML-Quelltext, welcher in irgendwas variieren kann. So, dass es nichts mit dem Posting-Inhalt selbst zu tun haben muss.

HTTP/1.1 200 OK. Das heißt ja, dass da was neu ist. Oder?

200 heißt nur, dass die Datei gefunden wurde und ausgeliefert werden kann. Das Gegenteil dazu ist bspw. 404

Ob die Datei neu ist oder nicht, wird da nicht ausgesagt. Es obliegt, dem Client zu entscheiden, ob er diese herunterlädt oder z. B. eine gecachte lokale Variante zur Verfügung stellt.

Braucht man das Plug-in für den Last-Modified Header? – so als überhaupt.

Serverseitig setzen wir die Werte so korrekt wie nur möglich ist. Was allerdings zählt ist die letzte Angabe. Denn es kann bspw. der Server diesen 'header' setzen und dann ein PHP-Script diesen durch erneutes setzen überschreiben.

Mach Dir da gar keine Gedanken über diese 'header'. Denn erst mal macht das für den Server und für die Bots kaum einen Unterschied, ob diese abgefragt werden oder nicht. Andererseits sollen Bots ja kein Caching benutzen und zuletzt: Diese header sind für alle relevanten Inhalte seitens WP allermeistes gesetzt.

get_the_modified_time.Bildschirmfoto

Der TEST, wie spielt sich das so ab mit den Bots.

Aber erst mal aufgepasst! –
zum Workflow aus dem Backend

Der Workflow dann ist Gewöhnungssache. Dessen Zusammenhänge mit Last Modified Header habe ich im Netz nichts gelesen, – aber nicht hier auf Wegerl 🙂

Arbeitsablauf im Backend

In Anwendung des Last-Modified Header ändert sich auch der Arbeitsablauf im Backend. Bspw. in Änderung eines Widgets ist das dann nächst neuem Laden einer Seite nicht visuell. Da so die Seite selbst nicht verändert ist. Dazu muss mann dann eine Seite aufrufen, welche der Browser noch nicht gespeichert hat. … Das ist soweit kein Umstand.

Sehr seltsam war das auch mal nach dem Edit eines Beitrags! – nämlich in von 'Vorschau der Änderungen' war die Änderung nicht am Schirm. … Also erst nach dem 'Aktualisieren' des Beitrags und 'Beitrag anzeigen', da war die Edition zu sehen.

Selbst einer Seite, welche man vor der Backend-Anmeldung geöffnet hat und dann als im Backend aufruft, stellt sich die Seite nicht auf das Backend um. Usw.

So bleibt nur immer wieder den Browserverlauf zu löschen. Soweit ist dann ein zweiter Browser sehr hilfreich. Die anderen Vorgänge zum Löschen des Cache von einzelnen Seiten sind nicht erfolgreich. Wie auch auch der folgenden Website hervorgeht. S. Die Aktualisierung einer einzelnen Seite

Bot vom Internet-Dienst Bing und Google

LMH = Last Modified Header

Plug-in  Last modified headerOhne Last Modified
Header
Mit Last Modified
Header
Prozentual
die Bots
mit LFH
Bing4 Tage295131-60 %
Google4 Tage544204-62 %
Bing1 Monat15811273-19 %
Google1 Monat16981502-12 %
1. Nächst Monat:
Bing1 Monat9571273+25 %
Google1 Monat34751502-57 %
2. Nächst Monat:
Bing1 Monat20601273-38 %
Google1 Monat26461502-43 %
3. Nächst Monat:
Bing1 Monat1273
Google1 Monat1502

Warum den vier Tagen vs ein Monat  so unterschied ist? – frag mich nicht.

  1. Nächst Monat: Da sind mit Last Modified Header die Bots Besuche im selben Vergleich.
    • Da hat 'bingbot' ohne 'Ohne Last Modified Header' weniger Besuche geleistet als mit. Hingegen haben sich die Besuche von 'goolge-bot' mehr als verdoppelt.
  2. Nächst Monat: So ist das das soweit.
  3. Nächt Monat: …

3

XML-Sitemap

Nicht zwingend ist ein Verweis auf die XML-Sitemap, aber von Vorteil. Um dem Crawler zu weisen, wo sich die Sitemap befindet, kann man der Robots.txt (s. im Tab 6) die URL einfügen, bspw. Sitemap: https://wegerl.at/sitemap.xml

Info zum Plug-in Slim SEO, Die Generierung der ’sitemap.xml'. Das erledigt gleich auch das Plug-in Slim SEO. Siehe im Tab 4

XML Sitemap generieren

Alleinig als XML-Datei wird die das XML-Sitemap Feature in WordPress 5.5 erstellt und so es braucht kein separates Plugin. Siehe im Titel So erstellst du eine XML-Sitemap in WordPress: Vorteile, Plugins & Webmaster-Tools. Weiter ist da die Info! – im Titel Bis 10.000 Seiten brauchst du keine Sitemap im Blog.

Bspw in Verwendung Plug-in WP-Jetpack und entsprechende Aktivierung unter Engagement, ist die Sitemap für die Suchmaschinen "Google" und "bing" optimiert und für Besucher zur Übersicht strukturiert dargestellt.

Selbst anzusehen ist die Sitemap über www.domainname.net/sitemap.xml, egal ob ohne- oder mit Unterordner "wordpress". Allerdings ohne Plug-in ist keine Sitemap zu sehen, da wenn wenig Seiten sind und so keine Sitemap gebraucht wird. S. oben "Weiter ist da die Info!"

4

SEO Meta-Tags

Das Plug-in Slim SEO

Fast & Automated WordPress SEO Plugin.

In Funktion ist dies dann zur Differenzierung der Meta-Title und Meta-Description. Dazu erfolgt das per Beitrag unterhalb des Editors der Boxen. Dort ist auch ein Häkchen zu setzen, um evtl. Beiträge/Seiten den Suchmaschinen auszuschließen; s. auch Tab sieben. Weiter in den sparten Einstellungen können nur die Codes aus der Google Tag Manager- und Google Analytics eingefügt werden. Des Letzteren ist das auch in Plug-ins von wie Google Analytics Germanized (GDPR / DSGVO) mit dabei …


Nebenher erfolgt mit dem Plug-in die Generierung der ’sitemap.xml'. Siehe im Tab 3

Dann sind auch noch die Infos zum Betreff 'robots.txt'. Siehe im Tab 6

Der Untertitel des Plug-ins weist mit 'Search Engine Optimazion' zum Erfolg. So sollte es mit Slim SEO auch hier auf wegerl.at gelingen.


Das Folgende ist nun zum Durchblick, so in etwa, wie ist das mit den Meta-Tags anstatt eines Plug-ins zu handhaben. 

Der Autor führt vom SEO Grundverständnis fastwp.de/wordpress-seo/ über sog. Autom. SEO Meta-Tags* (Snippet in functions.php + Code in header.php) fastwp.de/2161/ zu sog. Autom. Meta-Tags* fastwp.de/5337/ (alleinig in header.php)

* Unterscheidung beachten! – im Titel von Autom. SEO Meta-Tags und Autom. Meta-Tags, welche dasselbe sind, aber der technischen Umsetzung ein Unterschied.

"Autom. SEO Meta-Tags"

Nach dem erstellen des Snippet-Codes in der functions.php ist in Themes header.php, nach <?php wp_head(); ?> einzufügen:

<?php wp_head(); ?>
<?php echo FastWP_seo(); ?>

Bemerkung zum SEO Meta-Tags (Snippet in functions.php + Code in header.php ): Wenn das Snippet für die functions.php deaktiviert ist, erfolgt – durch den Code in header.php zum leeren Code der Funktion (functions.php), – ein Error: also das Snippet für die header.php  muss ebenso entfernt werden – weiß man eben.

"Autom. Meta-Tags"

Einfügen des Snippets in header.php im <head> unter <?php wp_head(); ?>, also dort, wo das Snippet für die header.php des SEO Meta-Tags eingefügt gehörte – ist stattdessen, das "Autom. Meta-Tags" Snippet einsetzbar.


'Notiz' zum Snippet des Titels "Autom. Meta-Tags" 

Im Versuch des Snippets war vormals der Name des Seitentitels für den Browsertab doppelt. Also sind Codes vorhanden die angepasst gehören. Anstatt das normale SEO Meta-Tags (das Snippet in functions.php + Code in header.php ) das Snippet Autom. SEO Meta-Tags (alleinig für header.php) zu verwenden, ist auf Anhieb nicht gelungen. Siehe hierzu auch in den Suchmaschinen 'HTML-Seitentitel doppelt'. Und s. "Beginner workflow" 🙂

Des Beginners Workflow … … folgend obigen Link 'HTML-Seitentitel doppelt'. <title> ist im inc-Ordner verknüpft und wäre somit zu unterscheiden. Der Datei customizer.php, custom-header.php … Und mit herunter- und hochladen dieser Dateien sind vermutlich – aber tatsächlich – die Widgets verschwunden. Die Wiederaufnahme blieb erfolglos, weil die Widgets in den Seitenleisten nicht hielten. Die Konfigurierung der Widgets war zwar möglich und der Websites auch visuell. Erneuten Aufrufs der Widgets war die Konfigurierung wieder weg.

Sodann nach "Bugfix WordPress" noch immer nicht funktionell! Erst nach dem intuitiven Fortschritt. Also von der Seitenleiste ein Widget in den Abstellbereich ziehen. D. h. zu den "Inaktive Widgets". Und danach wieder zurück in die Seitenleiste. Ja – hiermit war die Konfigurierung wieder funktionell. Ob dies auch ohne dem Bugfix funktioniert hätte, kann ich nicht schreiben. Evtl. wäre das die Lösung ad hoc gewesen – edv ebd. – Nebenher waren auch die Webseiten nicht mehr verlinkt, also nicht aufrufbar (welche Ungereimtheit auch durch andere Umstellungen mal möglich ist). Aber dies ist leicht unter Dashboard → Einstellungen → Permalinks unter Abspeicherung auf "Einfach" und erneuter Abspeicherung vorheriger Version und okay.

5

Die rel-Attribute für Links

Mit den 'rel-Attriputen' lassen sich die Links direkt im Editor einstellen.

Bspw. rel="nofollow"

Das rel="nofollow" im lässt die Suchmaschinen davon abhalten, diesem Link in Hinsicht Backlink zu folgen.

<a href="http://www.domainname.net" target="_blank" rel="nofollow noopener noreferrer">Text, Text, Text</a>

Überblick

REL-ATTRIBUTE FÜR BESSERE HTML-LINKS

Im Folgenden ist die Autorin Diana Vogt divo-webdesign zu nennen. Da die Webseite in der Form nicht mehr vorhanden ist, folgte die Nachfrage. Als dass dem Einverständnis zur Veröffentlichung wurde mir der Artikel zugesendet. Vielen Dank möchten wir Frau Diana Vogt senden! Hiermit im Titel HTML-Links verbessern: So setzt man rel-Attribute richtig ein (pdf im neuen Tab).

… bspw. ganz nett mal ein Bild (welches vermutlich zur Vergrößerung angeklickt wird), vorab laden zu lassen, um es flugs darzustellen, s. Das rel=“prefetch“ Attribut. Im Heute spielt das aber nicht mehr die Rolle.

Wichtig: Das Attribut ’noopener'

Hervorragend Dokumentiert im Titel Links sicher auszeichnen mit „noopener“.

Neue rel-Attribute

Im Titel Google führt neue rel Attribute ein.

6

Die Robots.txt-Datei

Als ob die Suchmaschinen zur Indexierung der Website ein- oder ausladen, erfolgt über die virtuelle Robots.txt von WordPress.

Mit dabei ist das über Dashboard → Einstellungen → Lesen 'Sichtbarkeit für Suchmaschinen'. Dazu ist hier mit dem Plug-in WP Robots Txt die weitere Konfigurierung möglich. Weiter ist der Beitrag zur virtuellen Robots.txt im Titel Die robots.txt Datei von WordPress bearbeiten sehr gut.


Info zum Plug-in Slim SEO. Siehe im Tab 4

Bspw. ist der Ausschluss von einzelnen Beiträge / Seiten des Indexes von Suchmaschinen möglich. S. Slim SEO  Meta-Robots-Tag.


Die Robots.txt ist eine Sache für sich. Inhalts ist im Internet zu finden und jedem Link ähnlich. Die Grundlagen bietet erst mal selfhtml.org

Hindurch Robots.txt sind Dateien, Verzeichnisse auch die gesamte Webseite den Suchmaschinen auszuschließen. Die Crawler können über die Robots.txt gesteuert werden, beispielsweise, "Bingbot" zulassen und "Googlebot" nicht mit einbeziehen.

Grundlegend ist die Aufgabe der Robots.txt, den Crawlern anzuweisen, was mit dem Inhalt zu tun ist. Es hält die Suchmaschinenrobots nicht davon ab, Seiten und Inhalte zu crawlen. Die Robots.txt ist kein Zugriffsschutz für Dateien, hierzu ist der Paßwortschutz im Editor anzuwenden. Und, die Robots sind nicht verpflichtet, die Website zu crawlen.

Die Robots.txt lässt sich zur Ansicht über URL/robots.txt aufrufen, z. B. des Codes unter Ausschluss der Suchmaschinen wird angezeigt:

User-agent: *
Disallow: /

Entweder die virtuelle robots.txt vom WP-Core + das Plug-in oder im WP-Root die robots.txt-Datei erstellen

Die Robots.txt wird aus dem WP-Core generiert. Daher ist ohne Wenn und Aber die virtuelle Robots.txt und das Plug-in WP Robots Txt von nutzen.

Anders, die robots.txt selbst erstellen

  1. Dem Stammverzeichnis der Website eine leere Textdatei hinzufügen.
  2. Diese Textdatei umbenennen auf robots.txt
  3. Die Regeln eintragen und abspeichern; auf den Server hochladen.
Kl. Merkzettel zur Aufschlüsselung

Ohne / am Ende sind alle nachfolgenden Dateien mit eingeschlossen.

Disallow: /wp-admin
Die Administrations-Umgebung von WordPress

Disallow: /wp-includes
Die Gesamtheit der WordPress-Anwendungslogik

Disallow: /wp-content
wp-content/plugins usw.

Allow: /wp-content/uploads
Vom Nutzer hinzugefügter Inhalt

Fachsimpelei

Robots.txt-Datei und Unterordner "wordpress"

Die physische Robots.txt ist im Ordner hochzuladen, wo sich WordPress befindet: … weiß man eben –. aber auch Dashboard/Einstellungen/Lesen das Häkchen zum Ausschluss der Suchmaschinen entfernen? Eigentlich müsste das nicht sein, weil Selbige durch die erstellte, selbstständige Robots.txt überschrieben wird.

Ebd. Lehrreich:

Originär folgenden Hinweis: Die virtuelle robots.txt kann man auch ohne Plug-in erweitern. Wie man die robots.txt mit Plug-in bearbeitet, ist im Artikel "Die robots.txt Datei von WordPress bearbeiten" beschrieben. Zum Anlegen der virtuellen robots.txt nutzt WordPress die Funktion do_robots(). In der WordPress Version 4.2.2 finden wir diese Funktion in den Core … s. https://zoechbauer.name/eintraege-zur-virtuellen-robots-txt-von-wordpress-ohne-plugin-hinzufuegen/

S. auch Mehrfacher Contentrisiko beseitigen; im WordPress Duplicate Content finden.

Des Weiteren, schematisch: Praxis-Tipps (nicht nur) für Einsteiger, edv-beratung-thomas.de/index.htm?ti-seo-13-robots-txt.html

Das Beispiel einer Robots.txt-Datei für WordPress

Eine Datei namens robots.txt ist neben der virtuellen Robots.txt von WordPress auch eine eigens, selbst zu erstellende Datei möglich, s. fastwp.de/2766/ "Standard robot.txt für WordPress". Diese "Standard" Robots.txt-Datei ist mit einigen speziellen Codes im Zusammenspiel mit FastWP SEO Snippet fastwp.de/2161/zu verstehen, s. hierzu auch Tab Meta/SEO Meta-Tags.

Robots.txt-Datei des Weiteren
… das sind hier so kleine Erfahrungswerte

Website(n) den Suchmaschinen ausschließen …
und wie z. B. alle "Seiten", als "page", nicht geht.

Das Ausschließen von Webseiten muss mit dem Verzeichnispfad der URL zusammenhängen.

User-agent: *
Disallow: /page/ oder
Disallow: /wp-page/* usw. funktioniert mitnichten.

… außer die URL hat selbigen Namen.

Also mitziehend eines Thema mehrere  zusammenhängende "Seiten" ausschließen:

Die erwünschte Titelseite des Themas im Editor unter Seiten-Attribute/Eltern als "Hauptseite (keine Übergeordnete)" zuordnen und die jeweilig folgenden Seiten des Themas unter Eltern der Hauptseite zuweisen.

Somit sind Beispiels:

  • domain.net/vogel/
  • domain.net/vogel/uhu/
  • domain.net/vogel/uhu/bubo-bubo/
  • usw.

in Robots.txt mit

User-agent: *
Disallow: /vogel/*/*

… die Hauptseite und alle untergeordneten "Seiten" der Indexierung ausgeschlossen.

Robots.txt-Datei Testen
Robots.txt Tester

tool.motoricerca.info/robots-checker.phtml

searchenginepromotionhelp.com/m/robots-text-tester/robots-checker.php

Die Tester widersprechen sich in den Ergebnissen, welche der Auszeichnungen in Zusammenfassung, z. B.:

User-agent: EnigmaBot
User-agent: INGRID/0.1
User-agent: linklooker
Disallow: /

oder

User-agent: EnigmaBot
Disallow: /

User-agent: INGRID/0.1
Disallow: /

User-agent: linklooker
Disallow: /

… jeweils pro Agent in extra Auszeichnung richtig ist. In Summe, folgenden Links (Überprüfung der Robots.txt-Datei) ist nachvollziehbar, dass beiderlei Versionen ansprechen.

Überprüfung der Robots.txt-Dateien

Robots.txt Test Tool

Originär, obigen Link folgend: Bevor die robots.txt in das Root-Verzeichnis der Website raufgeladen wird, sollte der Nutzer stets ihre Korrektheit prüfen. Der kleinste Fehler kann dazu führen, dass der Bot die Vorgaben übergeht und ggf. Seiten einliest, die nicht im Suchmaschinenindex dazu kommen sollen. Hierzu die URL eingeben und den jeweiligen User Agent auswählen. Nach dem Klick auf “Prüfung starten” überprüft das Tool, ob das Crawling für die angegebene URL für den Bot erlaubt ist oder nicht.

Ungewollte Bots
Bots effektiv ausladen

Evtl. "Simple Falle für ungewollte Bots"? – Plug-in Hinweis fastwp.de/8536/ Plug-in Blackhole.

BotsReport

Des Themas im Allgemeinen informativ,  u. a. botreports.com/i/iaarchiver.shtml

z. B. ia_archiver ausschließen:

User-agent: ia_archiver
Disallow: /

Aktuell, die virtuelle Robots.txt: https://wegerl.at/robots.txt

Bots effektiv ausladen
Bild, pixel2013_ampel

Plug-in Blackhole,
Beschreibung, Installation und FAQ originär Plug-in Blackhole.

Siehe aber auch Shared-Webhosting und Services-Know-how die Frage zu Bad-Bots.

 

 

7

Eine Seite den Suchmaschinen ausschließen

Vorab die Info! – um einzelne Beiträge/Seiten der Suchmaschinen auszuschließen: das hat das Plug-in Slim SEO dabei. Siehe im Tab 4

Cachen des Inhalts (Anlegen einer Kopie des Inhals) den Suchmaschinen ausladen

Möchte man das Cachen, also das Anlegen von Kopien in den Suchmaschinen ausschließen, so ist in der header.php im <head> zu den Meta Elementen hinzufügen:

<meta name='robots' content='noarchive'>

8

Bug! – Konfigurierbarkeit der Widgets

… im Zusammenhang des Sippets: "Kurze Wörter automatisch aus URL entfernen."

Hier möchte ich für das Snippet: "Kurze Wörter automatisch aus URL entfernen", s. fastwp.de/1997/, unbedingt anmerken: Das Snippet bewirkte meiner Website einen Bug.

Also, nach werkeln (editieren) in der functions.php und folgenden Errors sowie deren Richtigstellung, hielt ich nachschau, wie es wohl den Widgets geht: Hier waren die konfigurierten Widgets verschwunden, und haben sich nicht erneut erstellen lassen. D. h., einrichten konnte man die Widgets, aber bei erneuter Ladung der Seite zur Erstellung der Widgets waren diese wiederum weg.

Nach Eingrenzung der Möglichkeiten, über Deaktivieren der Plug-ins stellte sich heraus, dass es im Plug-in Code Snippets (wo die Snippets für die functions.php abgespeichert sind) zu finden ist, und, ja, der besagte Code (Kurze Wörter automatisch aus URL entfernen) in Gegenprüfung war der Fehler.

Indessen meiner Anmerkung im Artikel auf der Website FastWP, hatte David nach Freischaltung des Kommentars dieses nächsten Tags wieder gelöscht. Hiermit liegt der Schluss nahe, dass der Fehler des Snippets "Kurze Wörter automatisch aus URL entfernen" im Zusammenhang mit anderem Snippet evtl. Plug-in den Bug hervorruft.

9

Ist der Titel eines Dokuments zu lange? – so sollte dieser für die URL gekürzt werden

Bspw . hier der obigen Überschift titel-fuer-url-kuerzen

Im Abspeichern des Beitrags folgt gleich dem Titel die URL. Diese kann dann händisch angepasst werden. Des längerem Titels sind die Schlagworte für die URL zu reduzieren. S. im Editor unter der Titelzeile, Permalink: 'Bearbeiten'.

UND, wie war der Anfang?

Die Suchmaschine "bing" habe ich mit März 17 meiner Website eingeladen. – Dem Suchbegriff wegerl bplaced (seinerzeit war bplaced in der URL inbegriffen) wird die Seite zuvorderst gereiht 😉 Die Textliche Beifügung, aber: Hier sollte eine Beschreibung angezeigt werden, diese Seite lässt dies jedoch nicht zu, 

Hilfe: Durch Anmeldung bei Google mithin Search Console: das Lesen und Intuition… Dto. für Bing und Yahoo

↑ Tabmenü G.-Analystics-und-die-Search-Console (3)Der Kategorie SEO der Hinweis
zum Beitrag Google Analytics.


Aktualisiert im Jahr 2022-Februar