⚡Будьте бдительны и не попадитесь на новые уловки мошенников!
📱Если вы пользуетесь мобильным телефоном, обязательно примите к сведению эту информацию. Схемы телефонных «разводов» разнообразны: в сутки совершается 8 млн мошеннических звонков более чем из 1000 колл-центров❗
А теперь мошенники используют возможности искусственного интеллекта. Сам по себе искусственный интеллект не является преступным инструментом, но мошенники уже начали применять его в своих схемах.
🗣️ В 2023 году мошенничество с клонированием голоса прокатилось волной по западным странам, а сегодня дошло и до нас.
🗯️ Сейчас актуален обман через аудиосообщения в мессенджерах. Так, мошенники сначала взламывают аккаунт, а затем начинают писать знакомым владельца аккаунта просьбы перевести деньги и прикладывают аудиосообщения. Их генерируют с помощью искусственного интеллекта на базе прежних голосовых сообщений.
😳 Сегодня, благодаря имеющимся технологиям, хакерам достаточно всего лишь 20-секундного фрагмента с разговором для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота.
❗️Следует не вестись на эмоции, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу. А еще лучше – придумайте кодовое слово для своих.
📱Если вы пользуетесь мобильным телефоном, обязательно примите к сведению эту информацию. Схемы телефонных «разводов» разнообразны: в сутки совершается 8 млн мошеннических звонков более чем из 1000 колл-центров❗
А теперь мошенники используют возможности искусственного интеллекта. Сам по себе искусственный интеллект не является преступным инструментом, но мошенники уже начали применять его в своих схемах.
🗣️ В 2023 году мошенничество с клонированием голоса прокатилось волной по западным странам, а сегодня дошло и до нас.
🗯️ Сейчас актуален обман через аудиосообщения в мессенджерах. Так, мошенники сначала взламывают аккаунт, а затем начинают писать знакомым владельца аккаунта просьбы перевести деньги и прикладывают аудиосообщения. Их генерируют с помощью искусственного интеллекта на базе прежних голосовых сообщений.
😳 Сегодня, благодаря имеющимся технологиям, хакерам достаточно всего лишь 20-секундного фрагмента с разговором для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота.
❗️Следует не вестись на эмоции, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу. А еще лучше – придумайте кодовое слово для своих.
Источник: https://vk.com/wall-134320488_1408
Пост №10653, опубликован 16 мар 2024