Was User beim Surfen im Internet sehen, entscheiden sie in erster Linie selbst. Zumindest denken das die meisten. Tatsächlich versuchen Webseiten aber, ihre Inhalte so gut wie möglich auf ihre Besucher zuzuschneiden. Nicht nur bei der Google-Suche, sondern auch in den sozialen Medien sehen Nutzer deshalb die Beiträge und Posts zuerst, die die Plattform als relevant für sie einstuft. Weil sie zum Beispiel von Personen stammen, mit denen die Nutzer in engem Kontakt stehen oder Themen betreffen, die sie interessieren. Gefiltert und sortiert werden all diese Beiträge durch einen Algorithmus. Was es damit auf sich hat, erklärt SpardaSurfSafe, eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg.
Ein Algorithmus ist laut Duden ein „Verfahren zur schrittweisen Umformung von Zeichenreihen“ oder ein „Rechenvorgang nach einem bestimmten [sich wiederholenden] Schema“. Es handelt sich also um eine mehr oder weniger komplizierte Formel, die bestimmt, wie sich ein Programm in bestimmten Situationen verhält. Welche und wie viele Daten mit welcher Gewichtung in die Berechnung einfließen, ist dabei von jeder Webseite individuell festgelegt und oft ein großes Geheimnis.
Algorithmen sind im Netz allgegenwärtig. Ob man etwas bei Google sucht, bei Facebook oder Instagram die Beiträge der Freunde und Bekannten durchscrollt oder bei Amazon nach Geschenken für die Liebsten sucht – was Benutzer sehen, ist bereits für sie kuratiert worden. „Selbst bei der Partnerwahl kommen heute Algorithmen zum Einsatz, zumindest wenn man eine Dating-App nutzt“, erklärt Götz Schartner vom Verein Sicherheit im Internet e.V. und macht damit deutlich, wie mächtig Algorithmen sind. „Diese Art der Selektion kann Fluch und Segen zugleich sein. Denn einerseits sind die Ergebnisse und das Angebot genau auf uns zugeschnitten. Andererseits bekommen wir aber viele Möglichkeiten überhaupt nicht zu Gesicht, weil der Algorithmus sie herausgefiltert hat. Damit enthält er uns auch die Chance vor, etwas Neues kennenzulernen“.
Besonders dieser letzte Punkt wird von Kritikern immer wieder bemängelt. Damit würden die Entwickler schließlich in die Informationsfreiheit eingreifen und Meinungen manipulieren. Tatsächlich gibt es zahlreiche Beispiele dafür, wie ein Algorithmus die vorgeschlagenen Beiträge beeinflussen kann. Ziel ist es ja, eine möglichst lange Verweildauer des Nutzers zu erreichen, also füttert der Algorithmus ihn mit immer mehr Beiträgen zu den Themen, die ihn interessieren. So hat die New York Times aufgedeckt, dass YouTube den Zuschauern, die sich über die Ausschreitungen in Chemnitz 2018 informieren wollten, immer extremere Videos anzeigte. Der Weg von einem seriösen Newsbericht zu kruden Verschwörungstheorien und Hetztiraden war dabei nicht weit. Insofern bergen Algorithmen tatsächlich die Gefahr, dass sie Meinungen beeinflussen, selbst wenn sie genau das tun, was sie sollen.
Auch von der sogenannten Filterblase wird im Zusammenhang mit Algorithmen oft gesprochen. Damit ist gemeint, dass insbesondere Nutzer von sozialen Netzwerken in einer Blase mit Inhalten gefangen sind, die genau ihrem Weltbild entsprechen. Der Algorithmus isoliert sie also von Informationen, die über diese Blase hinaus gehen und konträr zur eigenen Einstellung stehen. Das erschwert häufig die gesellschaftliche Debatte zu polarisierenden Themen.
Trotzdem sollte man die Formeln nicht von vornherein verteufeln, denn sie erfüllen eine durchaus sinnvolle Filterfunktion, ohne die das Internet ein wesentlich unübersichtlicherer Ort wäre. SpardaSurfSafe empfiehlt allerdings, die eigene Filterblase auch einmal aktiv zu verlassen und sich auf die Suche nach neuen Erkenntnissen zu machen.
Keywords:8com, Darknet, Cyber Defense Center, Hacker, Sparda Surf Safe, SpardaSurfSafe, 8 com, Sparda-Bank Baden-Württemberg
Powered by WPeMatico