Guillaume Chaslot ist ehemaliger Google-Mitarbeiter und Algorithmus-Programmierer. Er hat sich jetzt zu „seiner“ Technik geäußert.
1. Youtube hat angekündigt, dass die Plattform aufhören wird, Verschwörungstheorien zu promoten. Zum Beispiel jene Videos, die die Existenz einer flachen Erde „beweisen“. Guillaume, der bei jenem Algorithmus mitarbeitete, findet, dass dies ein historischer Sieg ist.
2. Er nimmt das Beispiel eines Bekannten Brian, der nach dem Tod seines Vaters auf Youtube „flüchtete“. Die Verschwörungstheorien haben Brian quasi verschluckt. Er würde jetzt keinem mehr trauen, nicht mehr arbeiten und keine Kinder mehr wollen.
Brian is my best friend’s in-law. After his dad died in a motorcycle accident, he became depressed. He fell down the rabbit hole of YouTube conspiracy theories, with flat earth, aliens & co. Now he does not trust anyone. He stopped working, seeing friends, and wanting kids. 2/
— Guillaume Chaslot (@gchaslot) February 9, 2019
3. Für Youtube und den Algorithmus ist Brian pures Gold. Für seine Familie ist das tragisch.
Brian spends most of his time watching YouTube, supported by his wife.
For his parents, family and friends, his story is heartbreaking.
But from the point of view of YouTube’s AI, he’s a jackpot.3/
— Guillaume Chaslot (@gchaslot) February 9, 2019
4. Warum ist er „Gold“? Der Algortihmus wurde so programmiert, den Zuschauer möglichst lange auf der Videoplattform zu halten, um die Werbeeinnahmen zu steigern. Somit ist Brian A. eine Werbeeinnahme und B. eine weitere Quelle, um den Algorithmus zu füttern. Denn: Brian verbringt so viel Zeit auf Youtube, dass der Algorithmus schlussfolgert, seine Videos würden ihn dort halten. So werden seine geschauten Videos beim nächsten Mal mit höherer Wahrscheinlichkeit weiteren Nutzern vorgeschlagen.
We designed YT’s AI to increase the time people spend online, because it leads to more ads. The AI considers Brian as a model that *should be reproduced*. It takes note of every single video he watches & uses that signal to recommend it to more people 4/https://t.co/xFVHkVnNLy
— Guillaume Chaslot (@gchaslot) February 9, 2019
5. Aber Brians Verhalten sollte nicht imitiert werden. Er ist geschwächt, vermutlich depressiv und auf einer Spirale nach unten.
How many people like Brian are allured down such rabbit holes everyday day?
By design, the AI will try to get as many as possible.
5/
— Guillaume Chaslot (@gchaslot) February 9, 2019
6. Darüber hinaus führt Brians Verhalten zu einem Teufelskreis für ander: Brians lange Sehzeiten beeinflussen Youtube, weil a.) Nutzer mit langer Seezeit als wertvoll betrachtet werden, b.) deren geschaute Inhalte mehr Zuschauer bekommen sollen, c.) Youtuber das bemerken und davon mehr kreieren, d.) Menschen noch mehr mit genau diesen Inhalten in anderen Videos ihre Zeit verbringen – und wieder zurück zu a.).
Brian's hyper-engagement slowly biases YouTube:
1/ People who spend their lives on YT affect recommendations more
2/ So the content they watch gets more views
3/ Then youtubers notice and create more of it
4/ And people spend even more time on that content. And back at 16/
— Guillaume Chaslot (@gchaslot) February 9, 2019
7. Dieser Teufelskreis wurde auch auf ander Plattformen, z.B. an Twitter-Bots getestet: Diese wurden in weniger als 24 Stunden rassistisch, wenn man sie mit diesen Inhalten „fütterte“. Letztendlich sind oft wiederholte Inhalte von hyperaktiven Nutzer das Model für den Algorithmus, um scheinbar alle Nutzer online halten.
This vicious circle was also observed with https://t.co/XRaKdOQiKz, and it explains why the bot became racist in less than 24 hours.
=> Platforms that use AIs often get biased by tiny groups of hyper-active users.
— Guillaume Chaslot (@gchaslot) February 9, 2019
8. Guillaume erforschte selbst, dass Verschwörungstheorien zu einer flachen Erde 10x mehr vom Algortihmus promotet werden, als die runde Erde.
Example of YT vicious circle: two years ago I found out that many conspiracies were promoted by the AI much more than truth, for instance flat earth videos were promoted ~10x more than round earth ones 🌎🤯
— Guillaume Chaslot (@gchaslot) February 9, 2019
9. Neben Verschwörungstheorien bringt der Algorithmus weitere Probleme: Suchtgefahr, Radikalisierung, politische Instrumentalisierung und grausame Kindercartoons, in denen Elsa den Kopf verliert.
I was not the only one to notice AI harms. @tristanharris talked about addiction. @zeynep talked about radicalization. @noUpside, political abuse and conspiracies. @jamesbridle, disgusting kids videos. @google's @fchollet, the danger of AI propaganda:https://t.co/NCPB9T7EtA
9/
— Guillaume Chaslot (@gchaslot) February 9, 2019
Since then many newspapers spoke about AI harms, as for instance: @wsj @guardian @nytimes @BuzzFeed @washingtonpost @bloomberg @huffpost @dailybeast @vox @NBCNews @VICE @cjr @techreview
Journalism matters
10/
— Guillaume Chaslot (@gchaslot) February 9, 2019
10. Es gäbe zwei Wege für u.a. Youtube, diesen Teufelskreis zu beenden: Entweder schauen ganz viele Nutzer auf einmal Videos über eine runde Erde an – oder man ändert den Algorithmus. Nach 13 Jahren hat sich Youtube entschlossen, den Algorithmus zu verändern.
There are 2 ways to fix vicious circles like with "flat earth"
1) make people spend more time on round earth videos
2) change the AIYouTube’s economic incentive is for solution 1).
After 13 years, YouTube made the historic choice to go towards 2)Will this fix work? 11/
— Guillaume Chaslot (@gchaslot) February 9, 2019
11. Was genau bringt diese Veränderung mit sich? Verschwörungstheorien werden nicht länger empfohlen und bekommen so nicht weitere Millionen Klicks. Brian ist kein „Vorbild“ mehr.
The AI change will have a huge impact because affected channels have billions of views, overwhelmingly coming from recommendations. For instance the channel secureteam10 made *half a billion* views with deceiving claims promoted by the AI, such as:https://t.co/ZLXyMGnGxg 12/
— Guillaume Chaslot (@gchaslot) February 9, 2019
12. Das könnte Tausende vor Brians „Spirale nach unten“ bewahren.
This AI change will save thousands from falling into such rabbit holes
(If it decreases between 1B and 10B views on such content, and if we assume one person falling for it each 100,000 views, it will prevent 10,000 to 100,000 "falls") 14/
— Guillaume Chaslot (@gchaslot) February 9, 2019
13. Natürlich können weiterhin schädliche Inhalte produziert werden und weiterhin sind 70% der geschauten Inhalte auf Youtube über Empfehlungen beim Nutzer gelandet. Aber die Empfehlungen schauen jetzt anders aus.
A concern remains that other rabbit holes are arising. I created https://t.co/0RjD2PtTvV to identify and monitor harmful content recommended by the AI.
15/
— Guillaume Chaslot (@gchaslot) February 9, 2019
14. Und somit ist Youtubes Algorithmus-Veränderung ein historischer Sieg für humanere Technologie: Anstelle die Schwächsten weiter herunterzuziehen, könnten alle von der Kreativität und unserem Wissen profitieren.
Conclusion: YouTube's announcement is a great victory which will save thousands. It's only the beginning of a more humane technology. Technology that empowers all of us, instead of deceiving the most vulnerable.
If you see something, say something.
16/
— Guillaume Chaslot (@gchaslot) February 9, 2019
Zur offiziellen Pressemitteilung auf Youtubes Blog klick mich.
Vielleicht sind Influencer mit Schminktipps auch nur so beliebt, weil… Teenager und Hausfrauen mehr Zeit haben?