Posted 18 февраля, 20:56
Published 18 февраля, 20:56
Modified 20 февраля, 19:18
Updated 20 февраля, 19:18
Прежде, чем разобрать способы обмана, следует обозначить, что сам ИИ не обманывает людей. Он лишь выполняет задачи по алгоритмам и данным, которые ему предоставляют. Возможности нынешних технологий дошли до такой реалистичности, что их сложно распознать самостоятельно.
Многие технологии, в том числе и бесплатные сервисы, способны писать новости на основе общей стилистики того или иного издания. Однако машина не может проверить достоверность, а потому читатели узнают фейковые новости от ИИ.
В 2023 году студент РГГУ «написал» за сутки диплом. Однако вместо работы над материалами в библиотеке, студент поручил дело нейросети ChatGPT. Никаких подвохов сопровождающие его работу преподаватели не заметии, защитился на «удовлетворительно», о чем написал в соцсетях.
После этого на него «настучали» в университет. После этого общественность разделилась на два лагеря: некоторые называли такой способ получения диплома мошенничеством, а другие завидовали — парень сделал работу совершенно бесплатно. Неизвестно, каким образом сложилась история в дальнейшем.
Многие в запрещенной на территории РФ соцсети получали в комментариях под публикациями послания от неизвестных аккаунтов, которые писали «раньше вы были лучше», «помнишь меня? Ты так изменилась» и прочее. Такие пользователи скрыты от внешних глаз, но в описании их страницы стоит ссылка на взломщик. ИИ лайкают, комментируют и распространяют определенные сообщения для влияния на общественное мнение или кражи данных.
Мошенникам теперь не нужно самим сидеть за созданием сайтов, поддельных электронных писем и прочих ресурсов, которые могут похитить данные. Идентичные на вид страницы могут предназначаться для отвлечения внимания, пока хакеры получают доступ к картам или другой информации о вас.
Искусственный интеллект научили имитировать человеческий голос. Теперь он может знать, как говорят ваши близкие и зачитывать текст, который ввел злоумышленник. Кроме того, ИИ повторяет акцент и говор, исправно имитирует трагедию в голосе — на это могут вестись пожилые люди, когда им звонят по схеме «Родственник попал в беду».
Сюда же можно отнести и дипфейки, который подразумевает соединение изображения и голоса. ИИ создает видео на основе фотографии, а потом может и наложить туда звук. Пример такому способу служит вопрос в ходе прямой линии с президентом страны Владимиром Путиным. Сгенерированный нейросетью «студент СПбГУ», похожий на главу государства, задавал вопросы.
Выяснилось, что сбор данных мессенджерами и приложениями дают возможность ИИ для манипуляции рекомендациями товаров, услуг и контента. Это приводит к росту прибыли определенной компании. Некоторые называют и это аферой.
Для борьбы с потенциальным обманом и манипуляциями, лучше всего всегда быть бдительными в соцсетях и при разговорах. При любом неизвестном звонке или сообщении нужно проверять информацию и развивать навыки критического мышления. Пока единственный верный способ разоблачить аферистов — перезвонить человеку на другом конце провода или сделать видеозвонок.
Насторожить сейчас могут искусственность, роботизированность и монотонность голоса ИИ, считают «Лаборатории Касперского». Похожим может быть только короткое сообщение, более объемные тексты можно распознать по авторству.
Сегодны есть удачные дипфейки с видео, когда накладывают на человека лицо другого персонажа. Так, например, после землятресения в Турции, мошенники публиковали в соцсети информацию о сборе средств на криптокошелек. Для этого брали изображение, на котором пожарный спасал ребенка из-под завалов, но у первого были шесть пальцев. Ловить мошенников можно на таких деталях.