Эксперимент Фейсбука
В 2014 году Фейсбук вызвал небольшой скандал: всплыла информация, что он экспериментировал с эмоциональным состоянием пользователей. Суть проста:
Фейсбук увеличивал количество негативного или позитивного контента в ленте (да, в 2014 году в Фейсбуке еще попадался позитивный контент). Задачей было понять, как это влияет на поведение пользователей — в частности, на то, насколько позитивные или негативные посты люди при этом пишут.
Эксперимент сработал так, как должен был сработать: чем негативнее или позитивнее была новостная лента пользователя, тем более негативные или позитивные соответственно посты писал он сам. Тогда экспериментаторы пришли к выводам, которые в 2024 выглядят очевидными: просто отбирая нужную информацию и никак не воздействую на людей напрямую, можно влиять на их состояние и поведение.
В 2014 году народ возмутился. Ребята, скажу прямо, в 2024 году это выглядит смешно — поскольку сейчас всё намного жестче, но никто не возмущается. Умные самообучающиеся алгоритмы уже давно делают то же самое, но куда более эффективно, чем возможно при их ручном управлении.
Перед самообучающейся машиной стоит задача: удерживать пользователей в соцсети как можно дольше. В средствах нет никаких ограничений. Возьмем экстремальный пример: в мире происходит очередной апокалипсис, и всем срочно надо знать о нём все фейки. Задачей алгоритма внезапно становится спровоцировать думскроллинг — заставить людей бояться, нервничать и листать новостную ленту всё время. У машины при этом нет злого умысла: она лишь подсовывает тот контент, который люди во-первых смотрят, а во-вторых, посмотрев, продолжают смотреть другой. Когда апокалипсис позабыт, машина действует столь же точно.
Человечество давно уже по уши находится в том эксперименте, который в 2014 году был проделан на очень примитивном уровне.