Die Grundlagen der Suchmaschinen-Optimierung

Vorwort:

Ich möchte hier eine kurze Einführung in das Thema “Suchmaschinen-Optimierung” (SEO) geben. Das Thema ist in den letzten Jahren immer Umfangreicher geworden, da es immer mehr Webseiten mit ähnlichen Themen gibt, welche miteinander um die ersten Plätze bei Google und Co. konkurrieren.

Warum man sich mit dem Thema beschäftigen sollte wird erst richtig klar, wenn man sich folgende Zahlen anschaut -> 85% der Internetnutzer rufen nach dem Start des Browsers mittels einer Suchmaschine Inhalte auf, dabei hat Google 90-95% Marktanteil in Deutschland, so dass wir uns darauf konzentrieren sollten. Nach welchem Muster (Algorithmus) Google die Webseiten bewertet ist jedoch nicht 100% bekannt, aber es soll von über 200 Faktoren abhängen, dabei unterscheidet man grob in zwei Kategorien “Onpage”- & “Offpage”-Faktoren. 

Onpage-Faktoren: (auf der jeweiligen Webseite)

 

 

1.) Content is King

An erster Stelle sollte man sich in die “Zielgruppe” hineinversetzen, um möglichst einzigartigen Inhalte (Content) anzubieten welcher für den User einen Mehrwert bietet. Dieser Inhalt wird dann auch von anderen verlinkt und somit weiterempfohlen und von Google besser bewertet. 

Da Google & Co. reine textbasierte Suchmaschinen sind, ist Content aus der Sicht von Google ausschließlich Text, jedoch sollte man für den User einen angemessenen Ausgleich zwischen Text & Bilder finden. Zudem sollte man frames & Iframes vermeiden und die Keyword-Häufigkeit im Text beachten, es damit aber auch nicht übertreiben, da die Bedeutung der Begriffe bei steigender Anzahl abnimmt. (3-8% Keywords gemessen am Gesamttext) 

 

2.) Seitentitel

Der Titel-Tag sollte das Thema gut beschreiben und min. ein relevantes Keyword enthalten. Gegebenenfalls hilft es auch, wenn man manchmal einen etwas reißerischen Titel verwendet. ;) Optimale Länge sind 40 bis 100 Zeichen (~ 4 bis 10 Wörter). 

 

<title>Der Seitentitel</title>

 

3.) Keywords

Die Auswahl, Platzierung und Häufigkeit der “Stichworte” ist auch von Bedeutung, da die Suchmaschinen die Relevanz der jeweiligen Themen so besser beurteilen kann. Dabei nutzt man meistens eine Mischung verschiedener Strategien, welche ich hier mit einem kleinen Beispiel verdeutlichen möchte:

Shorttail: “MP3-Player”

Midtail: “MP3-Player Testsieger”

Longtail: “Archos Vision MP3-Player mit TFT-Display “

Schreibweise: “MP3-Plyer Testsiger” (Info: Google korrigiert die Eingaben bei der Suche, daher funktioniert diese Methode nicht mehr so wie früher) 

Keystroke (Google-Instant): “MP” anstatt “MP3-Player”

 

Folgende Webseiten können dabei helfen entsprechende Keywords zu finden, dabei sollte man jedoch nicht vergessen, dass man ggf. Leute hinzuziehen sollte, welche sich mit dem Thema auskennen 

– KeywordToolExternal

– Google-Instant

– Assoziationsanalys

 

<meta name="keywords" content="Suchbegriffe, mit Komma, getrennt">

 

4.) (Meta-)Tags

Es gibt eine ganze Reihe von Meta-Tags, jedoch werden nicht alle von den Suchmaschinen berücksichtigt. Daher folgt eine Liste der wichtigsten Meta-Tags:

(Verwendet man XHTML statt HTML, muss ein abschließender Slash “/” am Ende der Tags hinzufüg werden, um gültigen Quellcode anzubieten. )

 

<meta name="description" content="Seiten-Beschreibung">

 

Auch die “Beschreibung” sollte einige relevante Suchbegriffe (Keywords) enthalten und zum ein gewissen Interesse wecken. 1 bis 3 Sätze in 140-160 Zeichen.

Google indexiert zwar dieses Meta-Tag, zeigt es aber nur an, wenn die Seite entweder keinen text enthält oder von besonderer Relevanz ist. Ansonsten werden kurze Textauszug aus einer Webseite,  sogenannte “Snippets” oder Daten aus dem “Open Directory” verwendet.

 

<meta name="robots" content="all">

 

Dieser Tag dient neben der robots.txt zur Steuerung von Suchmaschinen-Crawlern. Ein Beispiel-Code ist: http://www.google.com/support/webmasters/

content

Beschreibung

index /noindex die Seite soll indexiert / nicht indexiert werden
follow /nofollow Links sollen weiterverfolgt / nicht weiterverfolgt werden
noarchive die Seite soll nicht gespeichert (google-cache) werden
nosnippet verhindert, dass ein Ausschnitt in den Suchergebnissen angezeigt wird
noodp

für die Seite soll nicht die Beschreibung von “Open Directory” verwendet werden

PS: wenn gewünscht kann man die Einstellungen (wie auch in der robots.txt) für bestimmte Suchmaschinen bestimmen: z.B.: <meta name=”googlebot” content=”noarchive”>

Als Beispiel kannst du dir einfach mal die robot.txt von dieser & anderen Webseiten anschauen z.B.: http://suckup.de/robots.txt

 

<link rel="alternate" type="application/rss+xml" title="RSS-Feed - suckup.de" href="/feed">

 

Sollte ein RSS-Feed vorhanden sein (aus einem Blog- oder CMS-System) kann und sollte dieser per Meta-Tag & auf der Webseite angegeben werden.

 

<link rel="canonical" href="http://example.org">

 

“Oft kommt es vor, dass mehrere URIs auf den gleichen Inhalt verweisen. Beispiele sind dynamisch generierter Inhalt, wie in Foren oder anderen CM-Systemen, bei denen die gleichen Einträge unter verschiedenen Adressen abrufbar sind, Druckansichten von Webseiten oder auch lokale Kopien von Dateien, wie beispielsweise Lizenzen. In diesen Fällen kann mit dem Canonical Link der Haupt-URI angegeben werden, unter dem der Inhalt erreichbar ist. Verlinkende Webseiten, insbesondere Suchmaschinen mit ihren Linkdatenbanken, können so das Orignaldokument zu einer Seite finden und darauf in den Suchergebnissen verweisen.” – http://de.wikipedia.org/wiki/Canonical_Link

 

Aber Google verarbeitet nicht nur Meta-Tags, auch Standard-HTML-Tags helfen der Suchmaschine zu verstehen welche Wörter von Bedeutung sind und welche nicht, dazu kann man z.B. den Text in verschiedenen Bereiche mit eigenen Überschriften aufteilen (h1, h2, h3 …), sortierte & unsortierte Liesten (ul, ol) erstellen, bestimmte Begriffe hervorheben (strong) und vieles mehr. Alle diese HTML-Tags sollten jedoch auch korrekt eingesetzt werden: z.B.:

Falsch ->

<div class="ueberschrift-h1>Test</div>
<h1 class="ueberschrift-h1>Test</h1>

Richtig ->

<style type="text/css">
h1 { color:red; font-size:48px; }
</style>
[...]
<h1>Test</h1>

 

5.) (Google) Sitemap

“Mithilfe von XML-Sitemaps kann Google Seiten auf Ihrer Website finden, die anderenfalls unter Umständen übersehen werden. Einfach gesagt ist eine XML-Sitemap eine Liste der Seiten Ihrer Website.” – http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=156184

z.B.: suckup.de/sitemap.xml

 

6.) Bilder

Die Dateigröße sollte als erstes nicht zu groß sein!! Zudem sollten Bilder an der richtigen Stelle im Text untergebracht werden, so dass die Suchmaschine und auch der Leser den Zusammenhang zwischen Bild & Text leichter herstellen kann. 

Keyword-basierte Dateinamen: Am besten beschreibt der Dateiname selbst bereits das Bild (z.B. Ubuntu_Logo_klein.png, Android_Froyo.png …) 

Alt- und Title-Tags verwenden: “Das Attribut alt ist Pflichtangabe für jede Grafikeinbindung. Geben Sie darin einen Alternativtext an für den Fall, dass die Grafik nicht angezeigt werden kann. Das sollte bei rein illustrierenden Schmuckgrafiken in der Form alt=”” geschehen, um die Grafik als inhaltslos zu kennzeichnen. Vermeiden Sie es in solchen Fällen, die alt-Attribute von Grafiken mit unsinnigen Inhalten wie “spacer.gif” o.ä. zu befüllen.” – http://de.selfhtml.org/html/grafiken/einbinden.htm 

Die beiden Tags können auch unterschiedliche Inhalte haben sollten jedoch das Bild / Produkt näher beschreiben (z.B.: <img width=”150″ height=”150″ src=”Windows8_Bluescreen.jpg” title=”Bluescreen von Windows 8″ alt=”Bluescreen von Windows 8″>

PS: die Angabe der höhe und breite beschleunigt den Seitenaufbau, da der Browser nicht erst schauen muss, welche Ausmaße das Bild hat.

Qualität der Bilder: Google kann qualitativ minderwertige Bilder, welche z.B. zu hoch komprimiert wurden (JPEG) erkennen, daher sollte man meistens auf PNG-Bilder zurückgreifen, welche verlustfrei komprimiert werden können. | suckup.de/bilder_test/index.html

PS: extrem große Bilder sollten weiterhin im JPEG-Format gespeichert werden 

 

7.) Domainwahl

Du solltest für ein Projekt / Produkt am besten eine eigene, einprägsame Domain registrieren, zudem zieht Google das alter der Domain als Kriterium hinzu. Kostenlose Angebote wie z.B.  “*.co.cc” Domains hat Google gänzlich aus seinem Index verbannt, um Spam zu verhindert.

 

8.) “double Content” (intern)

Derselbe Artikel (oder größere Textauszüge davon) sollten z.B. nicht über verschiedene Domain erreichbar sein.

Beispiel:

http://voku-online.de/2011/06/20/epic-fail-bumblebee/ 

http://www.suckup.de/2011/06/20/epic-fail-bumblebee/

https://suckup.de/2011/06/20/epic-fail-bumblebee/

————-> http://suckup.de/2011/06/20/epic-fail-bumblebee/

Wenn du automatisiert doppelten Content produzierst (z.B. RSS, Druckseiten, verlinkte Themenseiten), können diese via robots.txt global, oder für die jeweilige Seite, durch die Meta-Tags (noindex, nofollow) aus der Indexierung herausgenommen werden.

Zudem kann man auch noch einen “Canonical Link” einfügen, welcher dabei helfen soll die Original-Quelle zu belegen & per .htaccess verbieten die Bilder auf deiner Webseite von extern (Webseiten) aufzurufen.  

 

9.) korrekte Weiterleitungen (Redirects)

Wenn man seine Seite auf eine neue Domain umzieht, sollte man die Inhalte direkt auf die neue Ziel-Domain weiterleiten und nicht etwa auf die neue Startseite verweisen, hingegen sollte man für temporäre Umleitungen 302-Redirects anstatt permanente 301-Redirects. Hier ein paar Beispiele wie man eine Weiterleitung per .htaccess erstellt: .htaccess & mod_rewrite 

mehr Infos: Weiterleitungen

 

10.) die Struktur der URL

An die URL stellt man die selben Anforderungen wie an den Titel, zudem kann man noch extra Infos einfügen wie z.B. /blog/ oder die Kategorie z.B. /ubuntu/.

Aus SEO-Sicht ist es nicht empfehlenswert das komplette Datum mit in der URL anzugeben, jedoch kann das Jahr z.B. /2011/ mehr Besucher auf die Webseite / Blog locken, da viele aktuelle Informationen bei Google suchen. Man sollte jedoch auch beachten, dass die Bedeutung der Wörter aus Sicht der Suchmaschine abnimmt um so weiter unten / hinten sich dieses Wort in der URL befindet, daher ist es auch nicht zu Empfehlen das komplette Datum mit in der URL aufzunehmen: Optimale Länge sind 100 Zeichen (max. 200 Zeichen). 

Info: Um mehrere Wörter in der URL zu trennen, sollten ausschließlich die Zeichen “/”und “-” und nicht “_” verwendet werden.

 

11.) Menü & Seitenstruktur 

Ein (Haupt-)Menü sollte immer erreichbar sein und kein JavaScript oder Flash enthalten, da Google diese nicht (schlecht) indizieren kann. Zudem sollte man Sackgassen vermeiden, hilfreich sind dabei z.B.: “Kategorien”, “verlinkte Keywords” oder eine Zusätzliche Navigation auf der Webseite “Home > Support > FAQ”

Alle Inhalte, welche man mit 4-6 Klicks von der Startseite erreichen kann, kann auch Google erreichen!

 

12.) interne Verlinkung

Du solltest Keywords in Texten, welche auf einer Webseite sind, auch untereinander verlinken, so dass der Zusammenhang der einzelnen Texte besser zur Geltung kommt. Die interne Verlinkung kann z.B. auch durch eine “Tag-Cloud” verbessert werden.

 

13.) Ladegeschwindigkeit

Zum einen berücksichtigt Google die Ladegeschwindigkeit der Webseite als Rankingfaktor und User werden mit Sicherheit mehr Freude an der Webseite haben! ;)

Ich habe bereits vor einiger Zeit einen ausführlichen Blog-Post zu diesem Thema geschrieben -> Webseiten beschleunigen – Übersicht 

 

14.) 404-Fehlerseiten optimieren

Man kann die 404-Fehlerseite auf verschiedene Arten optimieren, zum einen kann man den User mit etwas witzigen ablenken und weiter auf der Webseite halten. | 100 lustige 404 Seiten

Zum anderen könnte man zumindest die Sitemap mit in die 404-Seite einbinden oder alternative Artikel anzeigen. Ich teste gerade das “AskApache Google 404“-Plugin für WordPress, welches mittels Google ähnliche Artikel in die 404-Seite anzeigt.

Info: Zudem sollte man 404-Links im allgemeinen vermeiden / korrigieren. Falls du WordPress einsetzt solltest du dir einmal das Plugin “Broken Link Checker” näher anschauen.

 

15.) fehlerfreien Quellcode (HTML, XHTML, …)

Zudem sollte der Quellcode der Webseite weitestgehend fehlerfrei sein, da zum einen die Kompatibilität zu verschiedenen Browsern damit verbessert wird und weil Google dies als Kriterium zur Beurteilung der Webseite heranzieht. Hier einige Webseiten, welche dabei helfen den Quellcode zu überprüfen: (W3C)

– CSS

HTML

– Mobile

– RSS-Feed

 

16.) kein Blackhat-SEO verwenden

Blackhat-SEO ist dunkle Seite der Suchmaschinenoptimierung, es geht dabei immer darum die Suchmaschinen auszutricksen, was jedoch meistens nach hinten losgeht und seine Abwertung der Webseite zur folge hat. Beispiele:

– versteckte Links

– weißer Text auf weißem Hintergrund

– das Gästebuch-, Foren-, Blog- und Wiki-Spamming durch Einfügen von (irrelevanten) Links 

– u.s.w.

 

17.) kein Intro / Flash- & Java-Anwendungen vermeiden

NIcht nur für die Suchmaschine ist es wichtig die Webseite ohne umwege zu erreichen, auch für die User sind Intros / Ladeanzeigen zu Webseiten mehr als störend. Auch sollte man Flash- & Java-Anwendungen nach möglichkeit vermeiden, da diese ggf. nicht von der Suchmaschiene indexiert werden. 

 

18.) RDFa-Attribute (Rich Snippets) im HTML-Code

Dies ist für kleine Webseiten kaum von Interesse, wenn man jedoch einen Online-Shop oder ähnliches betreibt, sollte man sich mit dem Thema näher beschäftigen.

Info: Rich Snippets & Introducing Rich Snippets

 

19.) stetige Aktualisierung

Zudem mögen Suchmaschinen neue Inhalte, wie bereits zu beginn geschrieben “Content is King”! Diesen Effekt kann man nutzen, indem man neue Inhalte z.B. via Kommentare generiert, dabei können Kommenare welche nicht zum Thema passen bzw. nicht die nötigen Keywords beinhalte ggf. auch negative Effekte haben, daher kann man Kommentare auch auf anderen Seiten auslagern z.B. mit Disqus.

Man kann z.B. auch neue Inhalte via Facebook & Twitter auf die Webseite bringen (siehe Twitter-Meldungen auf der rechten Seite) indem man Inhalte importiert oder man aktualisiert von Zeit zu Zeit einige Beiträge! ;)

 

20.) Usability & Optik

Im Allgemeinen geht es darum, die Benutzerfreundlichkeit (Usability) & das Design auf einer Webseite zu vereinen, so dass sich User besser auf der Webseite zurechtfinden und dies mit Backlinks belohnen.

 

21.) Seriosität & Glaubwürdigkeit 

Auch hier steht in erster Linie der User und nicht die Suchmaschine im Vordergrund. Jedoch ist die Glaubwürdigkeit, dass man weiß wovon man schreibt und ein seriöser Auftritt der Webseite auch ein wichtiger Faktor! Stimmt das Konzep der Webseite nicht, so hilft auch die beste SEO-Optimierung nichts.

 

Offpage-Faktoren: (nimmt Einfluss auf die jeweilige Webseite, ohne auf dieser etwas zu ändern)

 

 
 

1.) Backlinks

Wie bereits zu Beginn beschrieben, bewerten Google eingehende Links, sogenannte Backlinks positiv für deine Webseite. Hier nun einige Beispiele wie man den Linkaufbau vorantreiben kann.
 
– gute Inhalte, Gewinnspiele oder ähnliches was den Nutzer interessiert
   und somit weiterempfohlen und mit Backlinks belohnt wird :)
– Signaturen mit Link in Foren
– Kommentare mit Link in Blogs
– RSS-Feed anbieten / Blogroll erstellen
– Beiträge im Sozial-Network verlinken (Twitter, Facebook, Google+)
– …
 

2.) “double Content” (extern)

Doppelte Inhalte sind nicht nur ein internes Problem auf der Webseite selbst, wenn deine Beiträge von anderen übernommen (geklaut) werden und Google den selben Inhalt mehrmals im Internet findet, ist dieser einerseits weniger Wert und wird daher 

 

3.) Google Webmaster Tools

Mit Hilfe der Google Webmaster Tools kann man selber prüfen, wie gut oder schlecht man von Google erfasst wird und ggf. bereits Rückschlüsse aus Änderungen ziehen.
Zum Beispiel kann man feststellen, ob Google beim indexieren (crawlen) der Website auf Fehler gestoßen ist, Sitemanps angeben oder prüfen mit welchen Suchbegriffen die Webseite bereits gefunden wurde…

1.) Google-Konto erstellen
2.) Google Webmaster Tools

Tipp: andere Suchmaschinen haben ebenfalls “Webmaster Tools” > z.B. Bing Webmaster Tools

 

4.) (online) SEO-Software

Es gibt sehr sehr viel SEO-Software, jedoch sollte man sich für den Anfang auf die bereits erwähnten “Webmaster-Tools” der Suchmaschinen konzentrieren! Wer zudem noch die Ranking-Positionen analysieren und überwachen möchte oder seine Webseite automatisch bei verschiedenen Suchmaschinen anmelden möchte, findet dafür auch kostenlose & kostenpflichtige Software. 
 
z.B.:
– kostenpflichtig: Hello Engines! 
– kostenloses (online): rapid.searchmetrics.com
 

5.) bezahlte Werbeeinblendungen (Grafikbanner, Textanzeigen …)

Natürlich kann man auch Traffic (Besucherzahlen) durch Werbung generieren. Dabei sollte man jedoch beachten, dass die Besucher nur wiederkommen, wenn auch einen Mehrwert bietet!

z.B.:

 

6.) Social-Media: Sichtbarkeit in sozialen Netzwerken und Plattformen

Social-Media ist ein Sammelbegriff für Facebook, Twitter, YouTube, Social-Bookmarking-Dienste etc. und ist so umfassend, dass ich dafür bereits ein eigenen Blog-Post geschrieben habe: Das Soziale-Netz und die digitale Zukunft

 

7.) Webkataloge

Ggf. kann man sich www.dmoz.org einmal anschauen, jedoch sind Webkataloge (Link-Sammlungen) in der heutigen Zeit weniger von Bedeutung!

mein neuer IT-Blog

Seit einigen Wochen bastele ich nun bereits an diesem neuen Blog, die meiste Zeit ist dabei für die Migration der Blog-Einträge drauf-gegangen. Mein letzter Blog beruhte auf e107 ein CMS welches in letzter Zeit einige schwerwiegende Sicherheitslücken hatte.

Die nächste Schwierigkeit bestand darin ein Ausgewogenes Gleichgewicht zwischen speed, usability und optik herzustellen. Dazu hab ich das folgende WordPress Theme “mystique” und einige WordPress Plugins verwendet. Außerdem läuft die Webseite nun auf einem neuen V-Server, aber nicht nur die Hardware wurde aktuallisierst, folgende Software kommt nun zum Einsatz.

Linux:

Debian 6.0 – Squeeze/sid

Webserver:

Nginx

Datenbank:

MariaDB

PHP:

PHP 5.3 + Suhosin-Patch + XCache



Da ich auch einige Zeit investieren musste, um mich mit den unzähligen Plugins für WordPress auseinander zu setzen, veröffentliche ich hier noch schnell meine Liste von verwendeten Plugins:

WordPress Plugin Pack: (Update: 07.11.2010)

  • AddToAny: Share/Bookmark/Email Button → Share-Button den ich nur auf der Start-Seite einsetze
  • Akismet → Blockt Spam
  • All in One SEO Pack SEO Optimierung für deinen Blog
  • All in One Webmaster → Verifizierung für Google, Bing, Yahoo, Alexa…
  • Auto Post Thumbnail Setzt das erste Bild in einem Blog-Artikel als Artikelbild
  • Auto SEO Tags fügt jedem Blog-Eintrag automatisch Tags aus Suchanfragen hinzu
  • Auto Tags fügt jedem Blog-Einträge automatisch passende Tags hinzu
  • BuddyPress macht aus einem Blog, einen Community-Blog
  • Contact Form 7 einfaches Kontaktformular
  • Disqus Comment System neues Kommentar-System
  • Enable Site Ping WPMU Ping für WordPress – Multi (Suchmaschinen über Updates eines Blogs mitteilen)
  • FD Feedburner Plugin Feedburner (RSS-Feed) Weiterleitung
  • Limit Blogs per User WordPress Multi (+BuddyPress) kann man neuen Usern “einen” eigenen Blog anbieten
  • Limit Login Attempts Limitiert die Login versuche
  • Link Indication Links hervorheben bzw. mit Icon versehen
  • Multisite User Management neue User können sich auf allen Blogs der Community einloggen
  • MySearchTermsPresenter zeigt in den Artikeln an, wonach gesucht wurde
  • Mystique Extra Nav Icons neue Icons für das Mystique-Design (oben rechts)
  • Old Post Notifier kann darauf hinweisen, dass ein Artikel bereits alt ist
  • Related Posts Thumbnails zeigt ähnliche Artikel mit Artikelbild an
  • Search Everything besser Suche für deinen Blog
  • Secure WordPress WordPress-Sicherheit erhöhen
  • SEO Friendly Images fügt automatisch Title zu einen Bild hinzu
  • SEO Smart Links fügt automatisch Title zu einen Link hinzu
  • SexyBookmarks Share-Button den ich in den Artikeln einsetze
  • Smart 404 zeigt Artikel-Links in der 404 (Seite nicht gefunden) Meldung an
  • Smart Archives Reloaded ein übersichtliches Archiv für Artikel
  • Special Text Boxes hebt Text in Artikeln hervorheben (Warnungen, Hinweise, Fehler…)
  • TDO Mini Forms erlaubt Gästen / Usern Artikel zu verfassen (z.B. Gastautor)
  • TinyMCE Advanced Erweiterung für den Blog-Editor von WordPress
  • W3 Total Cache Ladegeschwindigkeit der Webseite steigern
  • Wibiya Toolbar zeigt eine konfigurierbare Toolbar in deinem Blog an
  • Widget Logic kann Widgets auf bestimmte Bereiche des Blogs beschränken
  • WordPress.com Stats Webseiten Statistik (was lesen die Besuche, über was sollte man noch mehr schreiben)
  • WordPress Related Posts ich nutze dies, um ähnliche Artikel im RSS-Feed anzuzeigen
  • WP-CleanUmlauts2 wandelt Deutsche Umlaute automatisch um
  • WP-CodeBox zeigt Quelltext (PHP, JS, Bash…) in Blog-Einträgen lesbar an
  • WP Greet Box zeigt an von wo ein Gast gekommen ist, z.B. Willkommen Googler…
  • WPMU Google Sitemap Sitemap für WordPress Multi
  • WP-Optimize optimiert die WordPress Datenbank
  • WP-PostRatings einfache Bewertung für Blog-Einträge
  • WPtouch fügt ein Theme für Mobile Geräte hinzu
  • WP to Twitter veröffentlicht neue Artikel auf Twitter
  • WP Security Scan WordPress-Sicherheit erhöhen
  • WP Smush.it optimiert die Dateigröße von hoch-geladenen Bildern automatisch
  • WP-Syntax Code in Artikeln formatiert darstellen lassen
  • WP-Syntax Editor Integration Plugin wie der Name schon sagt, kann man WP-Syntax nun auch nutzen ;-)


Debian 6 – Squeeze
Debian 6 – Squeeze

404 SEO Plugin – optimieren

Habe mir soeben folgendes Plugin für WordPress installiert -> 404-plugin <- leider werden bei diesem Plugin standardmäßig Suchergebnisse von der Englischen-Google-Suche angezeigt, welche auf den Begriff in der URL, welcher nicht als Webseite gefunden wurde, angezeigt.

Mit einer kleinen Änderung am Quelltext, bekommst du Link-Vorschläge von und für deine eigene Seite angezeigt.

$URLs = array ('google' => "http://www.google.com/search?hl=en&q=inurl%3Asuckup.de+$custom404_missingpagestr&btnG=Google+Search&aq=f&oq=", 

In Zeile 168 veränderst du, wie im vorigen Beispiel einfach die Such-URL, natürlich mit deiner Domain und fertig!

Hier ein TEST-Link.

Update: Da das Plugin anscheinend nicht mehr aktualisiert wird und somit momentan nicht mehr zu gebrauchen ist, habe ich mich kurzerhand nach einer alternative Umgeschaut: Smart-404

Erfolg des eigenen Blogs prüfen

Nachdem ich nun bereits einige Blog-Einträge verfasst habe und meine Webseite in Suchmaschinen (z.B. google, yahoo, bing oder apacho) und Diensten (z.B. twitter, feedburner oder disqus) angemeldet habe, wollte ich wissen wie meine Webseite im Vergleich zu anderen Blogs abschneidet bzw. wie mein Blog insgesamt Bewertet wird.

Nun kann man Webseiten auf verschiedene Arten vergleichen, zum Beispiel die Anzahl an Seitenabrufen, über die Anzahl der Verlinkungen oder der Analyse von technischen Details.

1.) Traffic

Der Traffic bzw. die Seitenaufrufe kann man unter anderem auf den folgenden Webseiten abrufen und somit mit andern vergleichen.

www.alexa.com

 


alexa.com
alexa.com


topofblogs.com

 


topofblogs.com
topofblogs.com


bloggerei.de


bloggerei.de
bloggerei.de


2.) Verlinkungen

Die Anzahl der Verlinkungen (Backlinks) im Netz könnte man auch als relevante Größe zum vergleichen von Webseiten heranziehen.

Technorati

WIKIO

3.) Bewertung

Außerdem könnte man seine Webseite durch eine Bewertung mit andern Webseiten vergleichen, die Zahlen und Daten welche zur Berechnung herangezogen werden sind natürlich recht willkürlich, da jedoch jede Webseite an den selben Daten gemessen wird, kann man diese als Vergleich heranziehen.

www.seitwert.de

 


seitwert.de
seitwert.de


www.seitenreport.de


seitenreport.de
seitenreport.de


www.seittest.de


seittest.de
seittest.de


SEO

Nachdem man sich diese Daten angesehen hat und ggf. mit anderen Blogs verglichen hat, stolpert man spätestens über den Begriff “SEO” (Suchmaschinenoptimierung – Search Engine Optimization), bleibt die Frage wer dies wirklich braucht. Denn wenn man seine Webseite einigermaßen Benutzerfreundlich gestaltet, den Besuchern die Möglichkeit gibt Kommentare oder ähnliches einfach zu verfassen und somit mit der Webseite/Blog zu interagieren und Blog-Einträge über interessante Themen verfasst, steigt die Besucherzahl ganz automatisch. Zudem sind “Soziale Netzwerke” besonders für noch unbekannte Webseiten von Vorteil, daher folgt eine Liste von Webseiten, welche sehr hilfreich sind um eine Webseite bekannter zu machen…

z.B.:

Twitter

flickr + feedburner

MyBlogLog

backtype

friendfeed

um zu schauen über welche Themen von deinem Blog momentan in Sozialen Netzwerk diskutiert wird gibt es folgende Webseite.

ubervu

Wer seine Webseite / Blog nun auch getestet hat, kann seine Ergebnisse ja hier als Kommentar eintragen, so dass man die Ergebnisse vergleichen kann…

Google Trends

Mit Google-Trends kannst du Interessen in der Welt vergleichen. Google Trends zeigt an wie oft ein Begriff bzw. eine Webseite mittels google gesucht wurde, dabei kann man unter geographischen Regionen & Jahren/Monaten unterscheiden, um Trends zu analysieren.

verschiedene Trends/Webseiten vergleichen (z.B.: Windows XP & Windows 7):

www.google.de/trends?q=%22Windows+XP%22%2C+%22Windows+7%22

die aktuellen Trends (USA):

www.google.com/trends/hottrends

der Suchbergriff “Ubuntu”:

trends.google.com/trends?q=ubuntu

Analyse von Webseiten (z.B.: heise.de):

trends.google.com/websites?q=heise.de

Link:
www.googlelabs.com

Suchmaschinen mal anders

1.) Suchmaske für verschiedene Suchmaschinen

so kannst du deinen Suchbegriff z.B. bei Wikipedia als auch bei google nachschlagen lassen

www.limmz.com


2.) Öko – Suchmaschinen

pro Suche werden etwas mehr als 0,1m² Regenwaldfläche gerettet

forestle.org

… ein ähnliches Projekt …

ecosia.org

… oder auch die schwarze Google Seite 
www.blackle.com


3.) Hintergrundbilder – Suchmaschine

wallbase.net


4.) Linux – Suchmaschine

wer nach etwas zum Thema Linux sucht, der ist auf der folgenden Webseite genau richtig

www.google.de/linux

www.google.com/bsd

www.tuxsucht.de


5.) Wissenschaftlische – Suchmaschine

Daten aus verschiedenen Quellen werden miteinander verknüpft, jedoch bisher nur in Englischer-Sprach. Gib einfach mal deine Stadt, in der du wohnst in dieser Suchmaschine ein und schon bekommst du einige Interessante Informationen.

www.wolframalpha.com


6.) Musik – Suchmaschine

www.semsix.com


7.) Entscheidungs – Suchmaschine

Hunch (zu Deutsch: Vorahnung) soll über Frage-Antwort-Kataloge und daraus resultierende Analysen individuell bei Entscheidungen helfen

www.hunch.com


8.) Personen – Suchmaschine

wenn du eine Person anhand seines Namens finden möchtest bist du auf den folgenden Seiten genau richtig

www.yasni.de

www.123people.de


9.) Anonyme – Suchmaschine

auf den folgenden Seiten wird Privatsphäre groß geschrieben… :-)

semager.de

ixquick.com


10.) Twitter – Suchmaschine

auf dieser Seite kannst du Kurznachrichten von Twitter durchsuchen…

topsy.com


11.) Creative Commons – Suchmaschine

Die Idee: Kreative Inhalte jeder Art (bspw. wissenschaftliche Publikationen, Filme, Musik) sollen der Öffentlichkeit im Internet frei zugänglich gemacht werden, um eine uneingeschränkte weltweite Kommunikation und Zusammenarbeit zu ermöglichen.

search.creativecommons.org