SEOPT Wiki › Accessibility

Accessibility

Der Begriff Accessibility oder Web Accessibility bezeichnet die Zugänglichkeit oder Erreichbarkeit von Websites und Informationsangeboten im Internet. Statische und dynamische Websites sowie interaktive Webanwendungen sollten barrierefrei sein: Das bedeutet, dass die Inhalte von Menschen mit Beeinträchtigungen nutzbar sind – und zwar ohne Barrieren. Gemäß der Idee eines Internets für alle und einer möglichst barrierefreien Technik ist Web Accessibility ein Ideal, das es nach Tim Berners Lee, dem Erfinder des Internets, zu erreichen gilt. Für die Umsetzung dieses Ideals können Webdesigner und Entwickler auf unterschiedliche Technologien und Hilfsmittel zurückgreifen. Das Thema Web Accessibility ist zudem direkt mit der Benutzerfreundlichkeit von Websites und indirekt mit der Suchmaschinenoptimierung verbunden.

Ein für alle erreichbares Web

Viele Menschen sind bei der Benutzung von Websites auf unterstützende Technologien wie Screenreader, Brailleschrift, Spracheingaben oder Vergrößerungssoftware angewiesen. Laut Weltgesundheitsorganisation leben bis zu einer Milliarde Menschen mit einer Beeinträchtigung. Gehörlose oder blinde Menschen zählen ebenso dazu wie Menschen mit Lernschwierigkeiten oder verschiedenen physischen Beeinträchtigungen. Um die Inhalte einer Website konsumieren zu können, benötigen sie Unterstützung von Entwicklern, Webdesignern und Website-Betreibern: Faktoren wie die Anzeige von Inhalten auf Nutzerseite, die Struktur des HTML-Quellcodes oder die Einbindung von speziellen Tools und Plug-ins zum automatischen Vorlesen von Inhalten wirken sich auf die Lesbarkeit, Bedienbarkeit und Benutzerfreundlichkeit von Websites aus.

Vier Accessibility-Prinzipien

Accessibility beinhaltet Richtlinien, die Webdesigner bei der Erstellung von Websites beachten können (und sollten). Für die Vereinheitlichung dieser Richtlinien existieren verschiedene Gremien und Organisationen. Eine davon ist die Web Accessibility Initiative, die zum W3C (World Wide Web Consortium) gehört. Der aktuelle Standard für Webinhalte WCAG 2.0 umfasst Empfehlungen, die anhand von vier Prinzipien geordnet sind:

Grundsätzlich geht es bei der Accessibility darum, Alternativen zu schaffen und unterschiedliche Nutzungsszenarien vorwegzunehmen. Sind bestimmte Inhalte für einzelne Personengruppen nicht wahrnehmbar, werden diese Personengruppen faktisch ausgeschlossen – Sie können die Inhalte nicht konsumieren, auch wenn sie das gerne möchten und eigentlich zur Zielgruppe gehören.

Web Accessibility ist ein sehr komplexes Thema, das sich diesem Problem und den vielfältigen Bedürfnissen unterschiedlicher Benutzergruppen mit Empfehlungen annähert. Zu diesem Themenkomplex kommen Richtlinien wie Authoring Tools Accessibility Guidelines (ATAG), User Agent Accessibility Guidelines (UAAG) und Accessible Rich Internet Applications (ARIA) noch hinzu. Accessibility ist jedenfalls eine Voraussetzung für eine möglichst hohe Usability und Benutzerfreundlichkeit. Und das sollte das Ziel einer jeden Webanwendung sein.

Ein für Crawler erreichbares Web

Suchmaschinen durchsuchen das weltweite Internet mithilfe von automatisierten Programmen, die als Crawler, Spider oder Bots bezeichnet werden. Diese Programme versuchen Websites aufzufinden und auszulesen, was mit den Begriffen Crawling und Parsing beschrieben wird. Nach dem Auffinden durch einen Crawler und dem Auslesen einer Website durch den Parser (es gibt viele verschiedene Crawler für unterschiedliche Websites und Darstellungsformen; und Parser sind in der Regel ein Teil von Crawlern) wird die Website in den Index der Suchmaschine aufgenommen und in den Suchergebnisseiten (SERP) angezeigt. Nutzer können nun beispielsweise die Google-Suche verwenden, um eine Website zu besuchen oder um das Web nach Websites zu durchforsten, die einen bestimmten Suchbegriff (Keyword) enthalten.

Der Begriff Accessibility spielt auch hier eine zentrale Rolle: Nur Websites, die für Crawler erreichbar sind, kommen in den Index und können von Benutzern überhaupt verwendet werden – Der Großteil nimmt für das Surfen im Netz Suchmaschinen zur Hilfe. Die Webinhalte sollten also unbedingt für Crawler zugänglich sein. Ist das nicht der Fall, reduziert sich die Reichweite der Website und es gehen interessierte Leser bzw. potenzielle Kunden verloren. Nicht erreichbare Webinhalte haben weniger Traffic zur Folge und erzielen nicht die anvisierten Umsätze.

Wie kann Accessibility für Crawler erreicht werden?

Zunächst muss sichergestellt werden, dass kein Crawler in den Metadaten der Website oder in der Robots.txt-Datei der Website ausgeschlossen wird. Es ist auch möglich, ein neues Webprojekt bei Suchmaschinen einzureichen und ihnen eine Sitemap im XML-Format zur Verfügung zu stellen. Auf diese Weise erhalten Suchmaschinen Daten über die URL-Struktur und die inhaltliche Tiefe einer Website. Die jeweiligen Richtlinien der Suchmaschinen geben hierüber detaillierte Informationen.

Aus Sicht des Entwicklers ist die Struktur einer Website besonders wichtig: Mit sogenannten semantischen Auszeichnungen (Semantic Markup) werden einzelne Inhaltsbereiche wie Header, Body und Footer und die dort hinterlegten Inhalte (Überschriften, Texte, Bilder und Videos) so benannt und beschrieben, dass die computergestützte Verarbeitung dieser Inhalte ermöglicht wird. HTML5 stellt dafür eine umfangreiche Liste an Tags bereit, die auch für unterstützende Technologien wie Screenreader relevant sind. Hier gehen Suchmaschinenoptimierung und Accessibility Hand in Hand.

Auch ein Crawler profitiert von einer klaren Struktur. Denn Crawling erfolgt systematisch: Der Crawler beginnt mit einem Startpunkt, der üblicherweise die Startseite der Website ist. Von dort arbeitet er sich vor, bis hin zu den tieferen Ebenen der Website-Hierarchie. Er liest Inhalte aus, folgt den vorgefundenen Links und speichert mithilfe von Indizes und Schlagwörtern verschiedenste Daten über die Website. Signale wie Meta Titles, Überschriften, Inhalte und Linktexte werden unter anderem vom Crawler verarbeitet. Je besser die semantischen Auszeichnungen sind, desto akkurater sind die vom Crawler gesammelten Daten – und desto besser ordnet die Suchmaschine die Inhalte den Themen und Schlagwörtern zu, die später den Suchmaschinen-Index bilden.


Abonnieren Sie unseren kostenlosen E-Mail Newsletter ANMELDEN