Posted 18 февраля, 20:56

Published 18 февраля, 20:56

Modified 20 февраля, 19:18

Updated 20 февраля, 19:18

Новые способы мошенничества с помощью нейросетей

Новые способы мошенничества с помощью нейросетей

18 февраля 2024, 20:56
Фото: 1MI
Прогресс не стоит на месте. А потому современные технологии берут в оборот не только для благих целей. Так, с помощью искусственного интеллекта (ИИ) мошенники стали обманывать обычных граждан. Подробности — в материале Inkazan.

Прежде, чем разобрать способы обмана, следует обозначить, что сам ИИ не обманывает людей. Он лишь выполняет задачи по алгоритмам и данным, которые ему предоставляют. Возможности нынешних технологий дошли до такой реалистичности, что их сложно распознать самостоятельно.

А вы сталкивались с искусственным интеллектом в своей жизни?

Способы мошенничества с нейросетями

Новости и информация

Многие технологии, в том числе и бесплатные сервисы, способны писать новости на основе общей стилистики того или иного издания. Однако машина не может проверить достоверность, а потому читатели узнают фейковые новости от ИИ.

В 2023 году студент РГГУ «написал» за сутки диплом. Однако вместо работы над материалами в библиотеке, студент поручил дело нейросети ChatGPT. Никаких подвохов сопровождающие его работу преподаватели не заметии, защитился на «удовлетворительно», о чем написал в соцсетях.

После этого на него «настучали» в университет. После этого общественность разделилась на два лагеря: некоторые называли такой способ получения диплома мошенничеством, а другие завидовали — парень сделал работу совершенно бесплатно. Неизвестно, каким образом сложилась история в дальнейшем.

Боты и соцсети

Многие в запрещенной на территории РФ соцсети получали в комментариях под публикациями послания от неизвестных аккаунтов, которые писали «раньше вы были лучше», «помнишь меня? Ты так изменилась» и прочее. Такие пользователи скрыты от внешних глаз, но в описании их страницы стоит ссылка на взломщик. ИИ лайкают, комментируют и распространяют определенные сообщения для влияния на общественное мнение или кражи данных.

Фишинг и веб-сайты

Мошенникам теперь не нужно самим сидеть за созданием сайтов, поддельных электронных писем и прочих ресурсов, которые могут похитить данные. Идентичные на вид страницы могут предназначаться для отвлечения внимания, пока хакеры получают доступ к картам или другой информации о вас.

Голосовой мошенник

Искусственный интеллект научили имитировать человеческий голос. Теперь он может знать, как говорят ваши близкие и зачитывать текст, который ввел злоумышленник. Кроме того, ИИ повторяет акцент и говор, исправно имитирует трагедию в голосе — на это могут вестись пожилые люди, когда им звонят по схеме «Родственник попал в беду».

Сюда же можно отнести и дипфейки, который подразумевает соединение изображения и голоса. ИИ создает видео на основе фотографии, а потом может и наложить туда звук. Пример такому способу служит вопрос в ходе прямой линии с президентом страны Владимиром Путиным. Сгенерированный нейросетью «студент СПбГУ», похожий на главу государства, задавал вопросы.

Рекомендации и персональные данные

Выяснилось, что сбор данных мессенджерами и приложениями дают возможность ИИ для манипуляции рекомендациями товаров, услуг и контента. Это приводит к росту прибыли определенной компании. Некоторые называют и это аферой.

Как обезопасить себя

Для борьбы с потенциальным обманом и манипуляциями, лучше всего всегда быть бдительными в соцсетях и при разговорах. При любом неизвестном звонке или сообщении нужно проверять информацию и развивать навыки критического мышления. Пока единственный верный способ разоблачить аферистов — перезвонить человеку на другом конце провода или сделать видеозвонок.

Насторожить сейчас могут искусственность, роботизированность и монотонность голоса ИИ, считают «Лаборатории Касперского». Похожим может быть только короткое сообщение, более объемные тексты можно распознать по авторству.

Сегодны есть удачные дипфейки с видео, когда накладывают на человека лицо другого персонажа. Так, например, после землятресения в Турции, мошенники публиковали в соцсети информацию о сборе средств на криптокошелек. Для этого брали изображение, на котором пожарный спасал ребенка из-под завалов, но у первого были шесть пальцев. Ловить мошенников можно на таких деталях.

"