Tým ze Stanfordu, Washingtonské univerzity a Northeastern University vytvořil nástroj, který díky umělé inteligenci analyzuje příspěvky na síti X a vyhledává ty s nenávistnými, protidemokratickými či extrémně stranickými motivy. Tyto příspěvky pak během několika sekund přesune ve feedu níže, aby na uživatele působily méně intenzivně.
Doplněk testovalo více než 1 200 dobrovolníků během deseti dní před americkými prezidentskými volbami v roce 2024. Ti, kterým algoritmus potlačoval výbušný obsah, hodnotili opoziční stranu v průměru o dva body příznivěji. Podle vědců jde o změnu, která odpovídá posunu veřejného mínění za tři roky.
Efekt byl stejný u voličů liberálních i konzervativních. Ti, kteří viděli méně nepřátelských příspěvků, také hlásili méně časté pocity hněvu a smutku při používání platformy. Po skončení testu však emoční účinky nevydržely, a navíc se zkoumali pouze uživatelé přihlášení přes webový prohlížeč, nikoliv aplikaci.
Vědci zdůrazňují, že jde o průlom: poprvé lze zkoumat vliv algoritmů bez spolupráce samotných platforem. Podle autorů mohou podobné zásahy vést ke snížení stranické nenávisti, posílení důvěry ve společnosti a zdravějšímu politickému dialogu.