Российских пользователей предупредили о растущем числе мошеннических атак на сайтах знакомств, связанных с применением нейросетей. Злоумышленники используют генеративные нейросети для создания поддельных фотографий и видеороликов с привлекательными, но вымышленными лицами, что делает невозможным их распознавание по изображению.

Эксперт Юрий Силаев из лаборатории доверенного искусственного интеллекта РТУ МИРЭА отметил, что эти атаки основаны на уязвимостях, связанных с социальной изоляцией и опорами на личные переживания. После создания виртуальной «легенды» мошенники используют продвинутые языковые модели для ведения персонализированной переписки, анализируют реакцию жертвы и подстраивают стиль сообщений, создавая иллюзию взаимопонимания и близости.
Далее злоумышленники используют психоэмоциональные тактики: избегают видеозвонков и личных встреч, ссылаются на личные траблы, чтобы уклониться от проверки личности. В разговор внедряются темы финансовых вопросов — успехи в инвестициях, криптовалюте или внезапные проблемы, требующие денежных средств. Их конечная цель — получение денег под предлогом срочной помощи, после чего мошенники исчезают, оборвав связь с жертвой.
Для защиты рекомендуется использовать строгую верификацию через видеосвязь с живым голосом, избегать обсуждения финансовых тем с незнакомцами и не передавать личные или банковские данные. Также важно проверять подозрительные профили: если профиль выглядит идеально и истории кажутся слишком гладкими, это может свидетельствовать о автоматизированной работе мошенников. Эти меры позволят снизить риск стать жертвой современных схем мошенничества с использованием ИИ.





