Выберите язык

Russian

Down Icon

Выберите страну

Portugal

Down Icon

Как алгоритмы лгут

Как алгоритмы лгут

В период выборов нам больше не следует бояться шпионов или памфлетов. Лайков , кликов и 30-секундных видеороликов достаточно. Небрежная прокрутка может испортить выборы, сформировать мнение и расколоть общество. Политическое манипулирование с помощью алгоритмов — это не фантастика и не футурология: это цифровое настоящее демократии.

Алгоритмы, управляющие социальными сетями и контент-платформами, были разработаны для того, чтобы привлекать наше внимание, продлевать наше пребывание в них и предугадывать наши желания. Проблема? То, что удерживает наше внимание, не всегда является тем, что информирует нас лучше всего. Напротив: чем эмоциональнее, противоречивее и провокационнее контент, тем шире его охват. Алгоритм учится у нас, но также формирует нас. И когда этот цикл подвергается манипуляциям со стороны внешних интересов, он становится оружием вмешательства.

Именно это мы наблюдали на примере вмешательства России в президентские выборы в США, референдум по Brexit и несколько выборов в Европе. Фейковые профили, боты, профессиональные кампании по дезинформации и цифровые стратегии, призванные разъединить, вызвать недоверие и подорвать общественный дискурс. Что ещё серьёзнее: большинство этих кампаний не были бы эффективными без молчаливого соучастия алгоритмов, которые усиливают то, что шокирует, то, что разжигает страсти, то, что лжёт.

Правда в том, что алгоритмы не нейтральны. У них есть экономическая логика, чётко определённые приоритеты и цели. А когда у них отсутствуют механизмы прозрачности, подотчётности или внешнего аудита, они превращаются в чёрные ящики, обладающие реальной властью над мнениями, поведением и политическими решениями. Тот, кто контролирует алгоритм, частично контролирует и общественную сферу.

Китай — типичный пример: платформы вроде TikTok подчиняются логике цензуры и продвижения контента в интересах режима. Опасность грозит не только китайским пользователям, но и всем, кто использует эти платформы в качестве основного источника информации. То же самое касается видеороликов, отрицающих войну на Украине, исторического ревизионизма, продвигаемого фейковыми аккаунтами, или языка вражды, распространяемого радикальными сегментами сетей.

Португалия не застрахована. Уровень цифровой грамотности остаётся низким, зависимость от социальных сетей высока, а контроль над платформами практически отсутствует. Мы уже видели распространение дезинформации о вакцинах, иммиграции, войне и национальной политике. Внешнее вмешательство, осуществляемое посредством информационной дестабилизации, также представляет реальную угрозу для португальского общества.

Европа реагирует. С принятием Закона о цифровых услугах начинает формироваться режим большей прозрачности и ответственности платформ. Закон об искусственном интеллекте может дополнить этот ответ, наложив ограничения на генеративный искусственный интеллект и требуя использования систем верификации.

Если алгоритмы формируют то, что мы видим, то только образование может формировать наше мышление. Ответ не может быть только законодательным — он должен быть и образовательным. Без цифровой грамотности мы всегда будем лёгкой добычей на невидимой шахматной доске.

Это также новая форма гибридной войны: постоянная и невидимая. Речь идёт не только о защите данных. Речь идёт о защите демократии. В мире, где алгоритмы лгут, защита правды — это политический выбор. И коллективный долг.

observador

observador

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow