Die Google Sitelinks sind ja nett und schön, doch irgendwie liefert der Algorithmus dahinter nur sehr selten wirklich passenden Ergebnisse.

Sehr oft erscheinen mir die bis zu 8 Direktlinks unterhalb des ersten Suchergebnisses mehr als eine zufällige Ansammlung. Bei einigen Wenigen Softwareprojekten passen die Ergebnisse zwar seltsamerweise wie die Faust aufs Auge, doch gerade bei einigen Communitys verstehe ich nicht, wie unwichtige Profil-URLs den Weg in die Sitelinks finden.

Wäre es da nicht schön die Sitelinks als Webmaster selber bestimmen zu können, oder Google zumindest per Meta-Tag oder robots.txt einige Favoriten vorschlagen zu dürfen? In den Google Webmaster Tools ist es dem Seitenbetreiber aktuell nur möglich einzelne Sitelinks für maximal 3 Monate zu sperren, selber editieren oder gar hinzufügen kann man aktuell noch nicht.

Klar, das würde sicherlich auch wieder zu viel Manipulation führen, doch im Prinzip weiß der Seitenbetreiber doch am ehesten, was auf seiner Webseite am meisten hervorgehoben werden sollte, oder nicht?

So, das war mein spontanes Wort zum Sonntag ;)


Suchmaschinenoptimierung ist seit einiger Zeit ja das Thema im Netz wenn es um die Generierung von Traffic geht. Dabei unterscheidet man grob zwischen zwei Optimierungsbereichen:

  1. Der OnPage-Optimierung
  2. Der Off-Page Optimierung

Die OnPage-Optimierung betrifft alles was man selber an der Seite ändern bzw. optimieren kann, also den Quelltext, Metatags, Ladezeiten/Dateigrößen, URLs usw., während die OffPage-Optimierung all das betrifft was man von externen Seiten tuen kann um der eigenen Seite einen Rankingbonus zu verschaffen. Die OffPage-Optimierung besteht damit wohl zu 99.9% aus Linkbuilding ;)

Nun ist mir schon oft aufgefallen das viele Seitenbetreiber unendlich lange an ihrem HTML-Gerüst herumschrauben. Da werden die wichtigsten Keywords in <h1 /> gewrapped, Alt-Attribute für gewagte Keyword-Kombinationen missbraucht und möglichst alles genau so gestrickt wie es der letzte SEO-Artikel empfohlen hat (z.B. auch: immer alle wichtigen Wörter in <strong />. Ist man dann fertig mit diesen Optimierungen liest man plötzlich einen neuen Artikel der besagt das <h1 /> ja gar nicht mehr gewertet wird und nun <h2 /> der neue Schlüssel zum Glück wäre. Also fängt man von vorne an und strickt seine Seite zumindest Codetechnisch nochmal um, und vergisst dabei gerne auch die Semantik.

An den URLs wird auch oft bis zur Vergasung geschraubt. Möglichst sollte jedes erdenkliche Keyword darin vorkommen. Doch sollen jetzt Ordner oder doch .html-Dateien von mod_rewrite vorgegaukelt werden?

Viele Mythen ranken sich um die OnPage-Optimierung, und am Ende stelle ich für mich folgendes Fest: Simples und gutes Handwerk ist immer noch die beste Medizin. Es gibt keine Pauschalaussagen für die Bewertung von einzelnen HTML-Tags oder URLs. Macht die Seite einfach so wie ihr sie für eure User schreiben würdet. Setzt die semantisch korrekten Tags und nicht die die im letzten SEO-Ratgeber als Wunderwaffe ausgezeichnet wurden.

Ich habe schon so einige Seiten hin und her optimiert, doch nie sind mir große Sprünge im Ranking aufgefallen die auf eine solche Änderung zurückzuführen sein könnten. Es zählt also einzig und allein die allgemeine Zugänglichkeit. Am Ende ist das Hauptkriterium dann meist eh die Anzahl und Qualität der Backlinks… eine reine OnPage-Optimierung trägt ohne eine gewisse Masse an Backlinks (und die unterschätzt man meistens) nur sehr begrenzt Früchte.


Search Insights ist ein frischer Dienst von Suchmaschinenengiganten Google welcher sich ähnlich wie Google Trends mit der Popularität von Keywords befasst.

Während Google Trends jedoch kaum Filtermöglichkeiten zulässt und oftmals nur zum Vergleich zweier Keywords genutzt wurde ist Search Insights schon ein ausgewachsener Dienst der seine Ergebnisse zeitlich, geographisch und per Kategorien (Autos, Immobilien, Spiele, usw.) in Kombination filtern lässt.

So kann man z.B. ganz leicht die Popularität der Keywords “Textpattern”, “Wordpress” und “Serendipity” im Jahr 2007 in Deutschland miteinander vergleichen lassen. Die Ergebnisse nennen leider keine absoluten Daten so das man mit einem gewissen Traffic rechnen könnte, doch man erkennt zumindest auf einen Blick welches Keyword relevant ist und welches nicht, zumindest solange man einen Bezugspunkt hat.

Vor einiger Zeit hat Google ja bereits sein Adwords Keywordtool neu aufgelegt somit noch ein wenig tiefere Einblicke in den zu erwartenden Traffic geschaffen, auch wenn hier nicht ordentlich gefiltert werden kann.

Alle drei Keyword-Analysetools in Kombination sollten jedoch einen guten ersten Überblick darüber verschaffen welche Keywords es sich zu optimieren lohnt, und welche man maßlos überschätzt hat.

via Heise


Heute hab ich durch Zufall einen für mich neuen Robotnamen in einer robots.txt entdeckt: ia_archiver

Der ia_archiver ist der nette kleine Robot der Waybackmachine.

Die Waybackmachine spidert seit Jahren bestehende Seiten und speichert diese in unregelmäßigen Abständen auf den eigenen Servern zwischen, somit ist es für die Nachwelt jederzeit möglich sich ein älteres Abbild einer Seite anzeigen zu lassen. Wie sah z.B. Microsoft.com vor fast 12 Jahren aus? Oder wie lange existiert eine Domain schon in etwa?

Für die meisten ist es sicherlich kein Problem das das Veröffentlichte dort wohlmöglich auf alle Ewigkeiten zwischengespeichert wird. Wer jedoch zu 100% darüber entscheiden möchte für wie lange die eigenen Inhalte für die Nachwelt verfügbar bleiben, der hat über die robots.txt eine einfache Möglichkeit die Archivierung seiner Seite auch nachträglich abzuknipsen.

User-agent: ia_archiver
Disallow: /

Zack, innerhalb von ein paar Stunden ist das Archiv zu eurer Domain nicht mehr zugänglich. Natürlich ist es hier auch möglich nur einzelne URLs oder Unterordner für die Archivierung zu sperren.


Google Analytics kennen sicherlich viele von uns. Es ist aktuell vielleicht das Statistiktool für Webseiten schlechthin. Kostenlos, lässt sich leicht implementieren, schont unsere eigenen Server und liefert so detaillierte Daten wie kaum eine andere Statistik.

Die Nutzung von Google Analytics hat für mich dabei nur einen Nachteil:

Auf “normalen” Webseiten weiß Google nach dem Klick des Users in seinen Suchergebnissen nicht was der User danach auf der Seite treibt. Wie oft klickt der User? Wie lange hält er sich auf den Seiten auf? Hat er das gefunden was er wollte? Findet er die Seite doof und verlässt sie direkt wieder?

Google weiß es in vielen Fällen einfach nicht, denn hier hört die Zuständigkeit für Google beim ausliefern der Suchergebnisse auf. Statistiken liegen also in den meisten Fällen auf unseren eigenen Servern und somit haben auch nur wir darauf zugriff.

Kompletten Artikel lesen...


Es ist definitiv keine neue Erkenntnis das alles unter Position 1 in den Google-Ergebnissen zu einer geringeren Klickrate führt. In manchen Fällen ist das vielleicht nicht so wild da es eh genug Suchanfragen zum Keyword gibt und man sich mit den generierten Besuchen auch auf Position 2 oder 3 noch glücklich schätzen kann, bei weniger frequentierten Suchanfragen zu speziellen Themen kommt es aber oft auf jeden Klick an.

Nehmen wir z.B. mal die Suchphrase webdesign magdeburg, ich kann aus Erfahrung sagen das mehr als 3 Besucher am Tag über dieses Keyword schon fast ein Wunder darstellen, doch hinter jedem kleinen Besucher könnte ein dicker Auftrag sitzen. War nie so, aber könnte ja sein… wenn man fest dran glaubt ;)

Peter machte heute jedoch auf eine Studie über die Klickverteilung in den ersten 10 Suchergebnissen aufmerksam. Hier wurde in einer Studie der Cornell University das Verhalten der User auf den Ergebnisseiten analysiert. Nichts Neues, aber doch interessant wie stark die Klickrate schon ab Position 2 in den Keller geht.



Ältere Einträge

Blogsuche

RSS-Feeds

Plaste & Plastik

plasteundplastik.de - Das Geocaching-Weblog

Die Kategorien


Netz-Fundstücke


Meta / Propaganda