United States Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
May 29, 2020 1:58 AM ET

Facebook soll seine eigene Forschung ignoriert haben, die zeigt, dass Algorithmen die Nutzer geteilt haben


iCrowd Newswire - May 29, 2020

Illustration von Alex Castro / The Verge

Ein interner Facebook-Bericht, der den Führungskräften im Jahr 2018 vorgelegt wurde, stellte fest, dass das Unternehmen sehr wohl wusste, dass sein Produkt, insbesondere seine Empfehlungsmaschine, Spaltung und Polarisierung schürte, laut einem neuen Bericht des Wall Street Journal.

Doch trotz Warnungen vor den Auswirkungen, die dies auf die Gesellschaft haben könnte, ignorierte die Facebook-Führung die Ergebnisse und hat weitgehend versucht, sich von der Verantwortung in Bezug auf parteipolitische Gräben und andere Formen der Polarisierung zu befreien, zu der sie direkt beigetragen hat, heißt es in dem Bericht. Der Grund? Veränderungen könnten die Konservativen unverhältnismäßig treffen und dem Engagement schaden, heißt es in dem Bericht.

“Unsere Algorithmen nutzen die Anziehungskraft des menschlichen Gehirns auf Spaltung aus”, hieß es in einer Folie aus der Präsentation. Die Gruppe stellte fest, dass, wenn dieses Kernelement seiner Empfehlungs-Engine ungeprüft gelassen würde, es weiterhin Facebook-Nutzern “mehr und mehr spaltende Inhalte in dem Bemühen, die Aufmerksamkeit der Nutzer zu gewinnen und die Zeit auf der Plattform zu erhöhen” dienen würde. Ein separater interner Bericht, der 2016 erstellt wurde, besagte, dass 64 Prozent der Menschen, die sich einer extremistischen Gruppe auf Facebook anschlossen, dies nur taten, weil der Algorithmus des Unternehmens es ihnen empfahl, berichtet das WSJ.

Joel Kaplan, Vizepräsident für globale öffentliche Politik bei Facebook und ehemaliger Stabschef unter Präsident George W. Bush, hat die Bemühungen angeführt, diese Bedenken herunterzuspielen und den Fokus von Facebook weg von der Polarisierung zu verlagern. Kaplan ist eine umstrittene Figur, zum Teil aufgrund seiner hartnäckigen rechten Politik – er unterstützte den Richter am Obersten Gerichtshof Brett Kavanaugh während seiner gesamten Nominierung – und seiner offensichtlichen Fähigkeit, CEO Mark Zuckerberg in wichtigen politischen Angelegenheiten zu beungähnen. Kaplan hat seit der Wahl 2016 eine größere Rolle innerhalb von Facebook übernommen, und Kritiker sagen, dass sein Ansatz in Bezug auf Politik und Mäßigung darauf abzielt, Konservative zu besänftigen und Vorwürfe der Voreingenommenheit abzuwehren.

Kaplan zum Beispiel soll mitverantwortlich für die umstrittene politische Werbepolitik von Facebook sein, in der das Unternehmen erklärte, es werde Fehlinformationen in Kampagnenanzeigen nicht regulieren, indem es sie überprüft. Er hat auch Facebooks eher praktischer Ansatz in Bezug auf Sprache und Mäßigung in den letzten Jahren beeinflusst, indem er argumentierte, dass das Unternehmen nicht voreingenommen gegenüber Konservativen scheinen will.

Das Wall Street Journal sagt, Kaplan habe maßgeblich dazu beigetragen, Vorschläge zu schwächen oder ganz zu töten, um die Plattform zu ändern, um das soziale Wohl zu fördern und den Einfluss sogenannter “Super-Sharer” zu verringern, die dazu neigten, aggressiv parteiisch und in einigen Fällen so hyperengagiert zu sein, dass sie für die Nutzung von Facebook bezahlt werden könnten oder ein Bot sein könnten. Dennoch wehrte sich Kaplan gegen einige der vorgeschlagenen Änderungen – von denen viele von News Feed-Integritätsführer Carlos Gomez Uribe ausgearbeitet wurden – aus Angst, sie würden rechte Seiten, Politiker und andere Teile der Nutzerbasis unverhältnismäßig stark beeinflussen, die das Engagement in die Höhe trieben.

Ein bemerkenswertes Projekt, das Kaplan unterwanderte, war Common Ground, das versuchte, politisch neutrale Inhalte auf der Plattform zu fördern, die Menschen um gemeinsame Interessen wie Hobbys zusammenbringen könnten. Aber das Team, das es baute, sagte, dass es Facebook in einigen Fällen eine “moralische Haltung” erfordern könnte, indem es sich dafür entschied, bestimmte Arten polarisierender Inhalte nicht zu fördern, und dass die Bemühungen das gesamte Engagement im Laufe der Zeit beeinträchtigen könnten, berichtet das WSJ. Das Team wurde inzwischen aufgelöst.

Contact Information:

Nick Statt



Tags:    German, United States, Wire