United States Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Mar 5, 2020 1:16 AM ET

YouTubes Optimierungen, um weniger Verschwörungsvideos zu empfehlen, scheinen zu funktionieren


iCrowd Newswire - Mar 5, 2020
Die Forscher verfolgten das Empfehlungsverhalten der Plattform ein Jahr lang.

Einer der wichtigsten Aspekte von YouTube ist seine Empfehlungs-Engine, da die überwiegende Mehrheit der Ansichten und Uhrzeit von vorgeschlagenen Inhalten und nicht von direktem Datenverkehr stammen. Die Plattform macht eine gute Arbeit zu bestimmen, welche Videos für einen bestimmten Benutzer relevant wären, aber wenn es um Nachrichten und faktenbasierte Videos geht, können Verschwörungstheorie-Inhalte ihren Weg finden. Ab Januar 2019 — und nachdem es mit öffentlichen Gegenreaktionen konfrontiert war — versprach YouTube, die Menge an Verschwörungsvideos, die es an die Nutzer weitergibt, einzudämmen. Eine Von der University of California, Berkeley veröffentlichte Studie besagt, dass diese Bemühungen zu funktionieren scheinen und dass ihre Analysen eine 40%ige Verringerung der Wahrscheinlichkeit zeigen, dass YouTube auf verschwörungsbasierte Inhalte hindeutet.

Das Team trainierte seine Computer, indem es Hunderte von Verschwörungs- und Nicht-Verschwörungsvideos analysieren lassen und ihnen half, zu lernen, wie man zwischen den beiden unterscheidet. Nach der Ausbildung analysierten die Computer acht Millionen empfohlene Videos im Laufe eines Jahres. Leider waren sie nicht in der Lage, die Videos zu klassifizieren, indem sie sie tatsächlich anschauten — stattdessen verwendeten sie Transkripte, Metadaten (Titel, Beschreibungen und Tags), die Top 200 Kommentare jedes Videos und die wahrgenommene Absicht dieser Kommentare. Je nach Inhalt jeder dieser Quellen würden die Videos entweder als konspirativ eingestuft oder nicht.

Die Forscher betrachteten Verschwörungstheorie-Videos als solche, die geheime Verschwörungen von Machthabern abdecken, Ideen, die im Widerspruch zu wissenschaftlichem Konsens stehen, und Ansichten, die nicht durch Beweise untermauert werden oder nicht verfälscht werden können. Dazu gehören sowohl schädliche Verschwörungen wie jene, die behaupten, dass trauernde Sandy Hook-Familienmitglieder tatsächlich “Krisenakteure” sind, als auch die relativ harmlosen, wie die Behauptung, dass der Mothman den Einsturz der Silver Bridge in Point verursacht habe. Pleasant, West Virginia.

Die Ergebnisse zeigen, dass es eine dramatische Verringerung der Menge an Verschwörungstheorie Videos, die YouTube seinen Nutzern dient. Bei der Analyse wurde jedoch kein tatsächliches Benutzerkonto verwendet. Vielmehr wurden alle Inhalte in einem “abgemeldeten” Zustand angezeigt. Dies kann einen großen Einfluss auf die Ergebnisse gehabt haben, da der Verlauf der Uhr ein wichtiger Faktor dafür ist, wie YouTube bestimmt, welche Videos einem angemeldeten Benutzer vorgeschlagen werden sollen.

Ein Eintauchen in den Inhalt der Videos zeigt, dass YouTube selektiv sein kann, in welchen konspirativen Themen es unterdrückt. Die Geschwindigkeit, mit der Videos zur Verweigerung des Klimawandels vorgeschlagen werden, hat sich nicht viel geändert, während die oben genannten Sandy Hook-Videos spürbar reduziert wurden. Während das Urteil darüber, was eine schädliche Verschwörung für YouTube-Mitarbeiter darstellt, ein Problem sein könnte, könnte man argumentieren, dass die Unterdrückung von Verschwörungstheorie-Videos auf der ganzen Linie auch ein Problem sein könnte. Nicht-schädliche Verschwörungen können Spaß machen — die seltsamen Possen von Andrew W.K. fallen mir ein — und schließlich haben sich mehrere Verschwörungstheorien wie MKUltra und Project Sunshine als wahr herausgestellt.

Auf einer breiteren Ebene sind diese Verschwörungstheorie-Videos ein Problem, weil YouTube zu einer immer beliebter werdenden Quelle für Nachrichten und Fakten wird — die Plattform hat jeden Monat zwei Milliarden aktive Nutzer — sowie ihr Monopol auf dem Langform-Social-Video-Markt. Als solche aktive Plattform nutzen schlechte Akteure häufiger YouTube als Forum für Social Engineering, Desinformation und Desinformation.

Contact Information:

Marc DeAngelis



Tags:    German, United States, Wire