Ваш баланс:0
Сейчас онлайн:
Наташка Климова
Киска
Audrey Hollander
Johane Johansson
Анастасия Красовская
Федька
Чио Чио Сан
Molly
Анечка
Елизавета
ТУРБЮРО
Siyftacyacced
sobaka
      Нет избранных

Темная сторона ИИ: растет использование дипфейков и клонирования голоса


140

Выявлено, что на черном рынке в сети существует высокий спрос на фальшивый, убедительный и качественный мультимедийный контент.

За последний год генерация ложных или дипфейки получил большое развитие. Это уже не просто фотографии и видео, измененные с помощью искусственного интеллекта (ИИ), а гораздо более зрелая технология, целью которой является подмена голосатакже известный как глубокий голос. Эксперты предупреждают, что эти нововведения уже используются для обхода мер безопасности, например, с использованием скомпрометированных биометрических данных; а также для манипулирования онлайн-информацией и совершения других кибератак. Это вызвало рост черного рынка в дипфейкигде стоимость контента может варьироваться от $300 до $20 000 долларов за минуту, в зависимости от его качества и сложности.

В соответствии с Изабель Манхаррес, исследователь безопасности, группа глобальных исследований и анализа «Лаборатории Касперского»достижения в области генеративного искусственного интеллекта и машинного обучения привели к созданию все более реалистичного фальшивого мультимедийного контента, поскольку они представляют собой технологии, способные учиться на неструктурированных данных, таких как лицо или движения человека. Чтобы создать дипфейкиГенеративную сеть можно обучить на реальных фотографиях человека и, таким образом, генерировать бесконечное количество убедительных изображений для интеграции в видео.

Эти же методы машинного обучения могут использоваться для разработки искусственного голосового контента и, поскольку технология продолжает расширяться, мошенники могут использовать их для создания еще более доступного обманного аудиоконтента; К сожалению, люди, чьи образцы голоса или видео доступны в Интернете, например знаменитости и общественные деятели, с большей вероятностью могут стать жертвами выдачи себя за другое лицо. Поскольку ожидается, что его эволюция будет продолжаться, дипфейки Их уже классифицировали как одно из самых тревожных применений искусственного интеллекта.

И хотя в некоторых областях, например в маркетинге, были обнаружены преимущества благодаря новым инструментам искусственного интеллекта, таким как TikTok, которые позволят брендам и авторам создавать аватары реальных людей для создания рекламы на нескольких языках, использование дипфейки со злыми целями нанес ущерб другим секторам, включая банковское дело. Например, кража личных данных с дипфейки сыграл важную роль в финансовом мошенничестве, используя тактику и приложения, способные обходить механизмы биометрической проверки, уже используемые различными финансовыми организациями, позволяя злоумышленникам получить несанкционированный доступ к банковским счетам и конфиденциальной информации.

Несмотря на открытое наличие инструментов для создания дипфейкиПреступники ищут создателей, которые могут создавать реалистичный, высококачественный контент и даже контент в реальном времени, поскольку плавное и естественное моделирование движений, мимики или голоса является сложной задачей для алгоритмов, которые должны улавливать и воспроизводить очень специфические детали. Вот почему, Существует специальный рынок для дипфейки в Даркнетгде преступники предлагают услуги по созданию фейкового контента и даже учебные пособия с советами о том, как выбрать исходный материал или как поменять лица и голоса, чтобы создать убедительный фейк.

Эксперт поясняет, что спрос на дипфейки на этом рынке настолько высок, что превышает существующее предложение, поэтому в ближайшем будущем, вероятно, произойдет еще более значительный рост инцидентов, связанных с качественным фейковым контентом. Это представляет реальный риск для сферы кибербезопасности, поскольку цифры показывают, что более половины пользователей в Латинской Америке (69%) не знают, что такое кибербезопасность. дипфейк.

«Обнародование конфиденциальных личных данных в Интернете, таких как изображения лиц или аудио, представляет собой серьезную проблему для защиты этой информации от несанкционированного доступа и злонамеренного использования для создания ложного контента или выдачи себя за других. Это может нанести материальный или денежный ущерб, а также психологические и репутационные последствия для жертв. Поэтому крайне важно установить четкие рекомендации и стандарты создания и использования дипфейков, гарантирующие прозрачность и ответственность при их реализации. «Не нужно бояться ИИ, это инструмент с огромным потенциалом, но человек должен использовать его с этической точки зрения», — заявил он. пришел к выводу Изабель Манхаррес.

Касперский делится некоторыми функциями, которые могут помочь идентифицировать дипфейк:

  • Источник контента и информация, которой он делится, подозрительны. Будьте осторожны с электронными письмами, текстовыми или голосовыми сообщениями, звонками, видео или другим мультимедийным контентом, который вы видите или получаете, особенно если они содержат странную или нелогичную информацию. Подтверждают это из официальных источников информации.
  • Условия и освещение на видео противоречивы. Будьте осторожны, если обнаружите аномалии на заднем плане видео. Оцените, соответствует ли освещение лица окружающей среде. Несоответствие освещения может указывать на манипуляцию.
  • Движения лица и тела необычны. Будьте подозрительны, если выражение лица или тела неестественно, например, странное моргание или отсутствие моргания вообще. Убедитесь, что слова соответствуют движениям губ, а выражение лица соответствует контексту видео.
  • Поддельные аудиозаписи могут иметь искажения голоса. Обратите внимание на качество звука. Будьте подозрительны, если вы обнаружите в голосе неестественную монотонность, неразборчивость или странные фоновые шумы.
  • Чтобы оставаться защищенным, важно информировать нас. Имейте в виду существование дипфейки и познакомьтесь с технологиями цифровых манипуляций. Чем больше вы осведомлены, тем лучше вы сможете обнаружить потенциальное мошенничество.
  • Используйте такие решения, каккоторые защищают от всех типов угроз, известных и неизвестных, при работе в Интернете как на компьютерах, так и на мобильных устройствах.

Вас может заинтересовать:


Понравилось? Не забудьте расшарить!

140

0 Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Авторизация
*
*
Регистрация
*
*
*
Генерация пароля