Das Team trainierte seine Computer, indem es Hunderte von Verschwörungs- und Nicht-Verschwörungsvideos analysieren lassen und ihnen half, zu lernen, wie man zwischen den beiden unterscheidet. Nach der Ausbildung analysierten die Computer acht Millionen empfohlene Videos im Laufe eines Jahres. Leider waren sie nicht in der Lage, die Videos zu klassifizieren, indem sie sie tatsächlich anschauten — stattdessen verwendeten sie Transkripte, Metadaten (Titel, Beschreibungen und Tags), die Top 200 Kommentare jedes Videos und die wahrgenommene Absicht dieser Kommentare. Je nach Inhalt jeder dieser Quellen würden die Videos entweder als konspirativ eingestuft oder nicht.
Die Forscher betrachteten Verschwörungstheorie-Videos als solche, die geheime Verschwörungen von Machthabern abdecken, Ideen, die im Widerspruch zu wissenschaftlichem Konsens stehen, und Ansichten, die nicht durch Beweise untermauert werden oder nicht verfälscht werden können. Dazu gehören sowohl schädliche Verschwörungen wie jene, die behaupten, dass trauernde Sandy Hook-Familienmitglieder tatsächlich “Krisenakteure” sind, als auch die relativ harmlosen, wie die Behauptung, dass der Mothman den Einsturz der Silver Bridge in Point verursacht habe. Pleasant, West Virginia.
Die Ergebnisse zeigen, dass es eine dramatische Verringerung der Menge an Verschwörungstheorie Videos, die YouTube seinen Nutzern dient. Bei der Analyse wurde jedoch kein tatsächliches Benutzerkonto verwendet. Vielmehr wurden alle Inhalte in einem “abgemeldeten” Zustand angezeigt. Dies kann einen großen Einfluss auf die Ergebnisse gehabt haben, da der Verlauf der Uhr ein wichtiger Faktor dafür ist, wie YouTube bestimmt, welche Videos einem angemeldeten Benutzer vorgeschlagen werden sollen.
Ein Eintauchen in den Inhalt der Videos zeigt, dass YouTube selektiv sein kann, in welchen konspirativen Themen es unterdrückt. Die Geschwindigkeit, mit der Videos zur Verweigerung des Klimawandels vorgeschlagen werden, hat sich nicht viel geändert, während die oben genannten Sandy Hook-Videos spürbar reduziert wurden. Während das Urteil darüber, was eine schädliche Verschwörung für YouTube-Mitarbeiter darstellt, ein Problem sein könnte, könnte man argumentieren, dass die Unterdrückung von Verschwörungstheorie-Videos auf der ganzen Linie auch ein Problem sein könnte. Nicht-schädliche Verschwörungen können Spaß machen — die seltsamen Possen von Andrew W.K. fallen mir ein — und schließlich haben sich mehrere Verschwörungstheorien wie MKUltra und Project Sunshine als wahr herausgestellt.
Auf einer breiteren Ebene sind diese Verschwörungstheorie-Videos ein Problem, weil YouTube zu einer immer beliebter werdenden Quelle für Nachrichten und Fakten wird — die Plattform hat jeden Monat zwei Milliarden aktive Nutzer — sowie ihr Monopol auf dem Langform-Social-Video-Markt. Als solche aktive Plattform nutzen schlechte Akteure häufiger YouTube als Forum für Social Engineering, Desinformation und Desinformation.