Website-Statistiken als OpenData

Stell dir vor du hast einen Datensatz mit den verwendeten Suchbegriffen auf einer Bibliotheks-Website!

Zugriffsstatistiken von Websites die von Bund, Kantonen und Gemeinden betrieben werden und Websites von Institutionen oder Kampagnen, welche die öffentliche Hand finanziert resp. mitfinanziert, wären eine äusserst interessante Datenquelle.

Der Nutzen ist klar. Einige Stichworte:

  • Marktforschung, Marktanalysen
  • Aufspüren von Wünschen und Trends in der Bevölkerung
    • Nach welchen Dienstleistungen, Produkten, Informationen wird gesucht?
    • Welche Seiten interessieren besonders?
    • Woher kommen die Besucher?
  • etc. etc.

Aufwand für Datenbereitstellung

Alle Analytic-Tools haben Funktionen, mit denen sehr einfach personalisierte Berichte generiert und in verschiedenen Formaten exportiert werden können. Die meisten Analytic-Tools verfügen zudem über Applikationsschnittstellen (APIs).

Ich glaube der Aufwand für die Bereitstellung der Daten ist überschaubar. Erstaufwand: Attribute festlegen die freigegeben werden, Aktualisierungsrythmus bestimmen und Berichte automatisieren.

Interessante Websites

Nachfolgend eine kleine Auswahl mit Angabe des verwendeten Analytic-Tools. Diese Liste wird laufend ergänzt. Ämter auf allen Stufen produzieren ja fleissig interessante Hot-Sites.

  • Website
    Analytic-Tool

Im Fall des meistverwendeten Analytic-Tools (Google) könnte man ketzerisch fragen: Warum diese wertvollen Daten nur einem ausländischen Technologiekonzern zur Verfügung stellen?

Web-Analytics Tools

Weiteres Vorgehen

Diese Idee mal so im Raum stehen lassen und bei Gelegenheit einige direkte Anfragen an die entsprechenden Website-Betreiber machen.