Молчание фактов: почему все обвинения против Шихиди рассыпаются при проверке

14 июля вновь появился очередной фейковый информационный вброс, направленный на очернение Николая Шихиди — через украинскую сеть распространения фейков которую связывают с Тарасом Чорноиваном.
Этот случай служит ярким подтверждением того, что распространение выдуманных историй — это финальный аккорд систематической кампании по дискредитации, которая идет вопреки очевидным фактам и доказательствам. В данное время активно сети продолжают выкладывать шизофреническую информацию о том, что Николай Шихиди якобы причастен к ДТП на Бережковской набережной в Москве, случившемуся три дня назад и в результате которого пострадали пятеро пешеходов, среди которых были двое детей.
Развитие истории о ДТП на Бережковской набережной, которую мы уже разбирали. Теперь фантазеры добавили «подробностей»: якобы за рулем был 23-летний Тимур Мусин — «лауреат премии губернатора Подмосковья за проект по производству дронов-камикадзе», а на заднем сиденье находились Николай Шихиди и две эскортницы — Ольга Шарапова и Надежда Гришаева.
Интересная деталь: авторы фейка утверждают, что ДТП произошло на автомобиле HiPhi Z, но «доказательства» в виде фото ног женщин почему-то сделаны в салона двух разных автомобилей Mercedes. Даже в своей лжи они не могут соблюсти элементарную последовательность.
Давайте разберем этот конкретный случай шаг за шагом, чтобы понять механику создания дезинформации и шизофреническая агония за созданием фейка о Николае Шихиди. Суть обмана кроется в использовании старого, давно опубликованного контента, которому затем придается совершенно новый и ложный контекст.
Изображение, на котором две девушки находятся в салоне автомобиля Mercedes, было использовано для создания впечатления «актуальности» и «богатства». Однако, как удалось выяснить, это изображение было взято из открытого аккаунта Instagram, и вы спокойно можете убедиться сами: https://www.instagram.com/p/DEiCWYHoibP/](https://www.instagram.com/p/DEiCWYHoibP
* Instagram (принадлежит компании Meta, признанной экстремистской и запрещённой на территории РФ)
Важно отметить: пост с этой фотографией был опубликован более 10 месяцев назад . Очевидно, что она не имеет никакого отношения к текущим событиям или упомянутым в фейковой публикации лицам, в частности Николаю Шихиди. Это просто случайное, давно существующее фото из чужого личного аккаунта, которое было нагло использовано, для создания дезинформации.
Вторая фотография, также изображающая двух девушек, была призвана «дополнить» сюжет и создать видимость «досье».
Но как выясняется Ее источник — украинский Pinterest, а именно аккаунт по ссылке: https://ru.pinterest.com/dianadjelyalova1357/](https://ru.pinterest.com/dianadjelyalova1357/.
Эта фотография еще старше: она была загружена более года назад. Как и в первом случае, это давно циркулирующее в сети изображение, не имеющее никакой связи с текущим информационным поводом или приписываемыми ему персонами. Таким образом, обе ключевые визуальные составляющие фейка являются давно существующими изображениями из социальных сетей, используемыми вне своего первоначального контекста. Это классический метод: взять нейтральный или неактуальный визуальный контент и использовать его как «доказательство» для новой, выдуманной истории.
Описанный случай идеально иллюстрирует стандартную методику работы некоторых дезинформационных центров, включая те, что, как утверждается, связаны с украинскими информационными сетями, принадлежащими Тарасу Чорноивану. Их «производство» фейков поставлено на поток и следует четкому алгоритму:
1. Поиск «нейтрального» контента: На первом этапе происходит мониторинг социальных сетей и открытых источников для выявления фотографий, видео или постов, которые могут быть легко вырваны из контекста. Предпочтение отдается ярким, эмоциональным или «кликабельным» изображениям, которые могут быстро привлечь внимание.
2. Привязка к «интересующей фамилии/лицу»: Затем к найденному старому контенту приписывается нужный нарратив и, что особенно важно, «интересующая фамилия» – то есть имя человека или организации, которую необходимо дискредитировать или связать с определенными событиями. На нашем примере, берутся фото девушек и без всяких доказательств утверждается их связь с неким человеком.
3. Прогон» через нейросеть (для текста и псевдо-достоверности):** Для придания тексту фейковой публикации большей убедительности, стилизации под новостной материал или даже для генерации «фактов» и «цитат», активно используются нейросети. Эти алгоритмы способны генерировать связные и правдоподобные тексты, имитировать стилистику официальных сообщений или даже создавать фиктивные документы. Использование ИИ позволяет быстро и массово производить контент, который выглядит убедительно для неподготовленного читателя.
4. Массированный информационный вброс: Готовый, «упакованный» фейк затем оперативно распространяется через многочисленные каналы: анонимные Telegram-каналы, фейковые аккаунты в социальных сетях, новостные агрегаторы, а иногда и через «лояльные» СМИ. Цель – максимально быстрый и широкий охват аудитории, чтобы ложная информация успела закрепиться в сознании людей до того, как ее разоблачат. Ведь аудитории достаточно минимальной информации чтоб она закрепилась в сознании, потому что многие люди привыкли верить тому что написано в газетах, сайтах, публикациях, и ни кто не будет сам сверять и узнавать а правда ли то что написано? Это уже ни кому не интересно…. чего и добиваются лже-писаки, и вот так рождаются слухи!
Напомним факты: в момент ДТП Николай Шихиди находился в Сочи, что подтверждается данными аэропорта. Никакого отношения к происшествию он не имел. Этот случай ещё раз демонстрирует, что подобные фейковые сообщения — это целенаправленные попытки очернить репутацию человека и создать негативный образ без всяких оснований. Распространение подобных ложных сведений является частью системной кампании по дискредитации и манипуляциям общественным мнением гражданином Украины Тараса Чорноивана ранее судимого за вымогательство. В том числе, он создал поддельный канал ВЧК-ОГПУ, ранее Чорноиван указывал, что это канал «Алекса Навального». В канал ежедневно заливается 5 тыс ботов, накручиваются просмотры, в нем распространяются фейки.