Ai-мошенники на Авито
Приветствую всех!
На написание поста меня сподвигла неприятная ситуация, я бы и дальше оставался молчаливым пользователем и лишь подглядывал за постами других людей, если бы мое негодование не перелилось за чашу терпения.
Я хорошо отношусь к нейро-артам, нейросетям в работе, облегчающим рядовые задачи и вообще технологическому процессу в целом. Но терпеть не могу, когда наживаются на сердобольных, добрых людях.
На днях мне попался аккаунт, где девочка 14 лет предлагает нарисовать вашего домашнего любимца за вознаграждение. Ее мотивация в том, что ее кошечка больна и она собирает деньги ей на операцию. Разумеется, все это ложь и сам пост и примеры картинок и текст объявление сгенерирован в нейросети и распознается с микро-секунды, если вы хоть раз имели дело с нейросетями.



Я скрыл имя автора объявление, что бы пост не удалили
Но больше всего меня разозлило с какой ответственностью мошенник подошел к этому процессу. Он раскрутил свой аккаунт, нафармил отзывов и начал заниматься этим МРАКОБЕСИЕМ и даже подключил бота, который отвечает на ваши сообщения заготовленной простыней жалостливого, но при этом циничного текста
Более того, мне даже попадались видео, где люди показывали, каких животных им нарисовали "детки" с авито и они восхищались этими сгенерированными рисунками. Не конкретно этого автора, а в принципе нейросетевыми картинками, которые им прислали мошенники.
Я только "за" монетизацию творчества, только "за" использование нейросетей для крутого результата творческого проекта, но прикрываться чужой бедой, отыгрывать роль ребенка, подставлять реальных детей, которые занимались таким же делом и рисовали своими маленькими ручками кошечек, собачек и черепах, да хоть черта лысого в рот оно ебись – это перебор. На святое руку подняли, черти!
Жаловаться на объявление бесполезно, писать негативные отзывы тоже – они опускаются в самый низ без оценки, так как их очень просто оспорить. Единственное решение – придать эту раздражающую ситуацию огласке.
@Avito.help, может быть у вас есть какой-то способ решения этой проблемы?
п.с - Пост как крик души, поделитесь своими мыслями или способами борьбы с такими аккаунтами
Варвар
Как ИИ-аферисты создали идеальную женщину. За 2 недели она собрала 10 миллионов рублей
Она писала каждое утро: «Привет, солнце». Помнила день рождения собаки. Записывала голосовые сообщения с забавными историями. Голос дрожал, когда рассказывала, как боится операции.
Через две недели он перевёл 180 000 ₽. Потом ещё. Потом ещё. А потом — тишина. Её не существовало.
Так работают digital-romance-аферы — новый вид обмана, где нейросети играют в любовь. Но это лишь одна из трёх схем, которые ломают жизни и опустошают счета.
Давайте разберём, как ИИ делает из нас жертв. И как не попасться.
Любовь с алгоритмом
Идеальные черты лица, нежный взгляд, чуть грустная улыбка. Алгоритмы уже генерируют лица без единой ошибки. Даже добавляют лёгкие морщинки, чтобы было не отличить от реальных лиц.
Дальше — знакомство в соцсетях. Вы пишете, она отвечает быстро и тонко чувствует эмоции. Делится тревогами, шутит, иногда ревнует.
Голос? Настоящий. Вернее, сгенерированный с помощью ElevenLabs или Voice.ai. Нужны всего 10 секунд чужого голоса, и программа сделает остальное: дыхание, интонации, даже лёгкое дрожание в голосе, будто она волнуется.
Через неделю вы уже обсуждаете совместное будущее. Через две — она «попала в аварию» или «нужны деньги на визу».
В отдельных кейсах Telegram-боты под видом «Анастасия/Настя» собирали миллионы рублей за считаные недели. Основная аудитория: мужчины 35–55, в разводе.
«Мама, я попал в аварию»
Звонок. Голос сына:
— Мама, я в больнице, помоги! Срочно нужны деньги!
Вы слышите тревогу, шум на фоне. И ни секунды не сомневаетесь: это ваш ребёнок. Но это не он. Это ИИ-клон его голоса, собранный из сторис или голосовых в чате.
Почему работает:
страх за близкого выключает критическое мышление;
плохая связь маскирует синтетические эффекты;
просьбы небольшие и «срочные», чтобы вы не советовались.
Мини-защита в семье:
кодовое слово/вопрос (как звали вашего первого учителя?);
правило: «всегда перезваниваем сами»;
отдельный семейный чат ”SOS”, где все подтверждают ситуацию.
Директор в Zoom просит перевести деньги
Корпоративная версия ИИ-обмана.
Как выглядит: вы на удалёнке, врывается экстренный видеозвонок. На экране — ваш руководитель. Говорит быстро, связь рвётся: «Нужно закрыть сделку до конца часа. Переводим партнёру, вот реквизиты». И всё — деньги ушли.
Используются: HeyGen, DeepFaceLab, Synthesia. Лицо с корпоративных трансляций, голос — из публичных выступлений.
Сигналы фейка:
разрыв синхронизации губ и звука;
«плоское» освещение, одинаковое во всех ракурсах;
руководитель избегает свободного диалога («я на совещании, просто сделайте»);
срочность + нестандартные реквизиты.
В США такие схемы привели к многомиллионным потерям. А в Азии дипфейки используются даже для фальсификации совещаний.
Мини-политика компании:
любые платежи вне утверждённого списка — только после голосового подтверждения по внутреннему номеру;
секретные «контрольные вопросы» между финансистом и руководителем;
запись всех срочных звонков и проверка.
Как распознать, что вас обманывает ИИ?
Перепроверяйте всегда. Звоните напрямую и спрашивайте, в чём дело.
Если закрадываются подозрения, просите собеседника ответить на вопрос личного характера, ответ на который знаете только вы и он.
Не действуйте под давлением. Эмоции и срочность — главное оружие мошенников. Всегда можно взять время на подумать и посоветоваться с ближним.
Доверяйте, но проверяйте — особенно, если что-то кажется «слишком хорошим».
ИИ не добрый и не злой. Он просто слишком убедительный.
И пока мы учимся делать картинки и тексты — кто-то уже учится ломать нам сердца и снимать деньги со счетов. Пора научиться защищаться.
Если уже перевели деньги
Немедленно свяжитесь с банком: запросите отмену/блок транзакции.
Заявление в полицию + скриншоты всей переписки, голосовых, реквизитов.
Проверьте устройства на вредоносные ссылки (часто романтические схемы совмещаются с установкой троянов).
Предупредите контакты: мошенники могут использовать вашу историю для цепной атаки.
Поделитесь этой статьёй — возможно, она спасёт чей-то счёт.