Blick in „Schwarze Box“: Weg zum Geheimrezept von Facebook & Co.



Konzentration ist im WWW ein kostbares Gut. Plattformen, allen vorwärts soziale Netzwerke, wollen ihre Nutzerinnen und Nutzer möglichst ewiglich fädeln und greifen dazu im gleichen Sinne in die technische Trickkiste. Egal ob TikTok, Twitter oder Instagram: Wohnhaft bei jedem Visite gibt es neue Postings zu erspähen und beziffern.Zuständig hierfür ist ein Algorithmus, demnach praktisch eine Handlungsanweisung pro Computer, wie mit den Vorlieben dieser User umgegangen werden soll. Dasjenige „Like“ in Form des Daumen-nach-oben-Knopfes ist nun dennoch längst nicht dieser einzige Kennzeichen pro dies Zustandekommen dieser Empfehlungen, wie die Algorithmenexpertin Julia Neidhardt von dieser TU Wien im Gespräch mit ORF.at erklärt.Systeme, die die Gesamtheit könnenIn den letzten Jahren hätten sich derartige Empfehlungsalgorithmen stark weiterentwickelt. Moderne Systeme „können – überspitzt gesagt – die Gesamtheit“, so die Informatikerin, und sie entscheiden aufgrund einer Vielzahl an Faktoren. Klicks, Freundinnen und Freunde, dieser Ort, technische Finessen wie Handymodell und -betriebssystem und selbst dies aktuelle Wetter würden neben unzähligen weiteren Variablen eine Rolle spielen, so Neidhardt.

Getty Images/Katarína Mittáková/Eyeem

Nachher welchen Kriterien Plattformen Postings empfehlen, soll nachher EU-Plänen künftig genau erklärt werden

Unterschiedlich denn vor 15 Jahren sind soziale Netzwerke heute dennoch zentraler Teil des Alltags – egal ob im Rahmen Wahlen, in Krisen und im Rahmen dieser Meinungsmanipulation – und sind damit hochpolitisch. Umso skeptischer sind Fachleute, dass die Mächtigkeit verbleibend welche „schwarzen Faustkampf“, in die kaum der gerne Süßigkeiten isst Einblick hat, vor allem in dieser Hand dieser ganz großen Konzerne im Netzwerk liegt.Große Pläne dieser EUDie EU will dies ändern: Im „Digital Services Act“, dieser die Mächtigkeit dieser großen Netzkonzerne regulieren soll, sind im gleichen Sinne Vorschriften pro Algorithmen enthalten. In einem erklärenden Textabschnitt des Entwurfs, dieser zuletzt Finale vierter Monat des Jahres eine weitere große Hürde genommen hat, heißt es, dass „sehr große Onlineplattformen sicherstellen“ sollen, dass Nutzer „vernünftig informiert werden“. Weiters sollen „die wichtigsten Variable pro Empfehlungssysteme gen leichtgewichtig verständliche Weise“ dargestellt werden, damit lichtvoll ist, wie Informationen pro sie priorisiert werden.Technische Finessen, nicht ganz unüblich in derartigen Vorschlägen gen EU-Niveau, werden ausgespart. Dasjenige Widerhall fiel im Rahmen Datenschützerinnen und Datenschützern zwar vornehmlich positiv aus. Doch die TU-Expertin Neidhardt sieht im gleichen Sinne Einschränkungen: „Welches es nicht spendieren wird, ist eine genaue Hinweistext, warum man in einem bestimmten Moment genau welche eine Sache angezeigt bekommt.“Neidhardt und im gleichen Sinne John Albert von dieser nichtstaatliche Organisation AlgorithmWatch verweisen oppositionell ORF.at gen ähnliche Erklärungen im Rahmen Werbung gen Facebook: Schon jetzt kann dort angezeigt werden, wieso eine bestimmte Werbeeinblendung angezeigt wird. Darin zu Vorlesung halten sind dann Kriterien wie „Person, weiblich, lebt in Ostmark, neugierig sich pro Politik“. Pro Postings gibt es welche Prozedur nicht – doch die Vorstöße dieser EU wollen zumindest offensichtlich mehr Transparenz in die Empfehlungen erwirtschaften.Selbst Entwickler selbst oft ratlosDas stellt dennoch im gleichen Sinne die Konzerne selbst vor ein großes Problem: Denn oft ist es im gleichen Sinne pro die Entwickler selbst kaum oder weder noch möglich, die Turnier eines Algorithmus nachzuvollziehen. Albert verweist unter anderem gen ein entsprechendes Projekt von Twitter aus dem Vorjahr, im Rahmen dem von den eigenen Mitarbeitern untersucht wurde, ob dieser Algorithmus politische Inhalte gen Twitter verstärken würde – mit dem Ergebnis, dass es dieser Kernpunkt war.Dasjenige liegt vor allem im gleichen Sinne an den rasanten Fortschritten gen dem Gebiet dieser künstlichen Intelligenz (KI), so Neidhardt. Die Algorithmen prosperieren indem eine gewisse Selbstständigkeit – erst wird ihnen ein Verhalten antrainiert, dann obliegt es dieser Maschine, zu entscheiden – je mehr Faktoren da hineinspielen, umso undurchsichtiger die Entscheidungsgrundlage.Doch durch die Entwicklungen in den vergangenen Jahren vervielfachen sich welche Faktoren – im gleichen Sinne weil die Systeme immer „schlauer“ werden. Musste man vor einigen Jahren noch sämtliche Datenansammlung aufwendig vorbereiten, um gen deren Lager Empfehlungen auszugeben, würden moderne Systeme, die unter anderem gen „Deep Learning“ setzen, eine Vielzahl an Inhalten unverändert verarbeiten und gewichten können, so Neidhardt. Aufwärts diesem Weg etwa Empfindungen aus Text zu extrahieren, demnach praktisch „herauszulesen“, sei zum Paradebeispiel kein großes Problem mehr, so die Expertin.Ungleichgewicht zwischen Konzernen und ÖffentlichkeitAlbert weist unterdessen darauf hin, dass Konzerne dennoch durchaus bewusste Entscheidungen beim Schema ihrer Algorithmen treffen – und welche Entscheidungen hätten „messbare Auswirkungen“, wie wir mit Information und nicht zuletzt miteinander umgehen. Es gebe eine „Mächtigkeit- und Informationsasymmetrie“ zwischen Plattformen und dieser Öffentlichkeit, welches die Funktionsweise dieser Algorithmen angehe, so Albert.Er verweist unter anderem gen die „Facebook Files“, die gezeigt hätten, dass Facebook sehr wohl gewahr war, dass dies eigene überarbeitete System Desinformation und gewalttätige Inhalte verstärkt empfahl. Die Konzernführung sprach sich jedoch gegen Änderungen an dem Algorithmus aus – nicht zuletzt weil die Userbeteiligung zunahm.

Reuters/Yves Herman

Mit Brüssels Vorstoß wird dies Silicon Valley unter Pressung gesetzt

Konzerne unterbinden Nachforschungen nochBisher sollen entsprechende Nachforschungen meist noch ohne Hilfe dieser großen Konzerne durchgeführt werden – womit nur ein oberflächlicher Einblick in die Reihungsmechanismen von Facebook und Cobalt. möglich ist, wenn schier. Denn oft wird behauptet, dass derartige Nachforschungen gegen die Nutzungsbedingungen dieser Plattformen verstoßen – ein AlgorithmWatch-Projekt zur Exploration von Instagram, dies gen Datenspenden von Usern setzte, wurde insofern gestoppt. Ein ähnliches Projekt von New Yorker Forschern gen Facebook endete mit Zeitweilig ausschließen pro die Accounts dieser Fachleute.Selbst dies soll sich mit dem „Digital Services Act“ ändern – unabhängige Überprüfungen von Algorithmen sind neben dieser ausführlichen Auskunftsschalter verbleibend deren Kriterien vorgesehen. Und: „Die Plattformen werden gezwungen sein, die tatsächlichen und möglichen Risiken zu untersuchen, die ihre Dienste pro die Öffentlichkeit darstellen“, so Albert.Doch dies Untersuchen existierender Algorithmen geht vor allem Datenschützern nicht weit genug. Stattdessen wird im gleichen Sinne verbleibend Alternativen zu den Algorithmen dieser Netzriesen diskutiert, zuletzt etwa im Rahmen dieser CPDP-Datenschutzkonferenz in Hauptstadt von Belgien Finale Mai.Fachleute fordern Alternativen zum eigenen AlgorithmusIn einer Diskussion von Fachleuten dazu kritisierte Katarzyna Szymielewicz von dieser polnischen nichtstaatliche Organisation Panoptykon Foundation die momentane Situation: „Wir können keine andere Schnittstelle oder vereinigen anderen Algorithmus wählen“, stattdessen würden große Plattformen unser Onlineverhalten „beobachten“ und dann welche „Beobachtungen untersuchen“.Damit, dass sie „verstehen, wer wir sind“, verfügten sie verbleibend „analytische Mächtigkeit“. Dasjenige Verständnis von wunden Punkten und Trends zementiere ihre Mächtigkeit nur noch weiter und hindere Konkurrenten daran, verwandt attraktive Dienste anzubieten. Verwandt sieht dies im gleichen Sinne die Datenschützerin Raegan MacDonald, die früher pro den Firefox-Hersteller Mozilla arbeitete: „Jene mit dieser größten Mächtigkeit ziehen im gleichen Sinne den größten Ziel daraus“, so die Expertin.Expertin: Neue Googles und Amazons trennen Problem nichtSzymielewicz verweist darauf, dass es hier nicht nur um „Dominanz“, sondern um „Notzucht von Menschen“ gehe. Mehr Konzerne, die gen dem gleichen Geschäftsmodell wie Meta, Google und Amazon einrichten, würden dies grundlegende Problem nicht trennen. Statt die Gesamtheit aus einer Hand anzubieten, sollen sich Nutzerinnen und Nutzer selbst aussuchen können, wer etwa den Algorithmus oder die Oberfläche zur Verfügung stellt.Damit soll es dann möglich sein, statt dieser Empfehlungen durch Facebook eine Weitere zu wählen. Möglich, so Szymielewicz, sei sogar, dass etwa eine nichtstaatliche Organisation vereinigen entsprechenden Algorithmus bereitstelle. Damit würde plötzlich schier kein Lokal mehr hinterm Algorithmus stillstehen. Dem Datenhunger dieser großen Konzerne, dieser welche wiederum weiter wachsen lässt, könnte damit umgangen werden, so zumindest die Theorie dieser Fachleute. Dasjenige wäre pro viele Konzerne dennoch wohl im gleichen Sinne mit einer Zerschlagung gleichzusetzen – dass derartige Schalten je durchgesetzt werden können, darf bezweifelt werden.„Digital Services Act“ erster Schrittgeschwindigkeit einer großen AufgabeDer ambitionierte Plan dieser EU-Kommission soll nun dennoch in einem ersten Schrittgeschwindigkeit den Internetnutzerinnen und -nutzern mehr Transparenz denn bisher zuteil werden lassen. Um vereinigen Teil dieser Mächtigkeit von den Netzriesen zurück in die Hand dieser Nutzerinnen und Nutzer zu legen, wird es dennoch nicht reichen, ihnen zu exemplifizieren, wie Empfehlungen zustandekommen.Es wird nicht weniger denn ein komplettes, dauerhaftes Öffnen dieser „Schwarzen Schachtel“, eines bisher gut gehüteten Industriegeheimnisses, erfordern, um jederzeit nachprüfen zu können, dass dieser Algorithmus immer noch dies tut, wofür er ursprünglich konzipiert wurde. Solange bis Hauptstadt von Belgien den „Digital Services Act“ irreversibel gen den Weg bringt, ist wohl noch mit viel Widerstand aus dem Silicon Valley zu rechnen.

Die Kommentarfunktion ist geschlossen.