Mozilla hat per Crowdsourcing-Daten den Youtube-Algorithmus für Video-Vorschläge untersucht und kommt zu einem vernichtenden Ergebnis. (via)
Mozilla hat mit dem Add-On RegretsReporter in den vergangenen Monaten eine Untersuchung der automatisch durch YouTube empfohlenen Videos durchgeführt. Dabei sollte das Ganze herausfinden, warum der Algorithmus scheinbar überraschend oft von den Vorlieben eines Zuschauers abweicht und sie zu unpassenden Videos führt. Für das Projekt wurden die von 37,380 Nutzern gesammelten Daten und 3,362 Erfahrungsberichte ausgewertet.
Ich finde diese Untersuchung auf jeden Fall sehr interessant, weil ich die beschriebenen Punkte durchaus nachvollziehen kann. Es passiert nicht unbedingt selten, dass die Empfehlungen von YouTube von meinen normalerweise angesehen Videos abweichen und mich in eher dunklere/nervige Bereiche bringen. Besonders häufig sehe ich bei mir Videos zu albernen Verschwörungstheorien. So etwas vermeide ich für gewöhnlich wie die Pest, weshalb der Algorithmus in diesem Fall nicht auf meine persönlichen Vorlieben bei Videos eingeht.
Besonders hervorheben möchte ich an dieser Stelle den folgenden Punkt:
We estimate that 12.2% of reported videos (95% confidenceinterval of 10.4 to 14.2%)either “should not be on YouTube” or “should not beproactively recommended,” basedon YouTube’sCommunity Guidelines.
Den gesammelten Daten zufolge verstößt also ungefähr jedes achte automatisch empfohlene Video auf die eine oder andere Weise gegen die Richtlinien von YouTube. Ich würde auf jeden Fall erwarten, dass solche Videos nicht empfohlenen werden und YouTube die Verstöße nicht automatisch anderen Nutzern präsentiert. Da problematische Videos aber erst durch die Meldungen von Zuschauern identifiziert und als Probleme eingestuft werden, lässt sich das Ganze mit den aktuellen Systemen wohl nicht wirklich verhindern.
Weitere interessante Punkte aus dem Bericht von Mozilla laufen darauf hinaus, dass die empfohlenen Videos schlimmer sind als die über die Suche gefundenen Videos, die problematischen Videos überraschend oft angesehen werden, die Situation in nicht Englisch sprechenden Ländern am schlimmsten ist und 9% der empfohlenen Problemfälle mittlerweile bereits wieder gelöscht wurden. Zusammen sprechen diese Punkte meiner Meinung nach dafür, dass YouTube ihre Systeme zum Empfehlen von Videos unbedingt verbessern sollte. Wie vermutlich viele ihrer aktuell verwendeten Systeme…
Hier könnt ihr euch den Bericht selbst durchlesen. Dort gibt es auch eine Reihe von Beispielen dafür, welche problematischen Aufnahmen den Teilnehmern der Untersuchung präsentiert wurden. Einige der aufgelisteten Fälle sind auf jeden Fall sehr unschön.
Verfasst von Azurios
Anzeige
Ich finde auch immer wieder komisch, wie manchmal Jahre alte Videos da auftauchen die gar nicht passen, und wenn man da mal drauf klick und in die Kommentare schaut, dann sieht man dort haufenweise Kommentare, dass die Leute vom YouTube Algorithmus zu dem Video gebracht wurden … Scheinbar werden solche unpassenden Videos also auch oft geklickt und werden dadurch dann wieder weiter anderen Usern vorgeschlagen …