Myvideo

Guest

Login

Острожно, DEEPFAKE Генеративные нейросети открыли бесчисленные возможности для инноваций

Uploaded By: Myvideo
1 view
0
0 votes
0

Острожно, DEEPFAKE Генеративные нейросети открыли бесчисленные возможности для инноваций, но также стали инструментом для сложных мошенничеств. DeepMind, подразделение Google, представило шокирующую статистику о том, как чаще всего злоупотребляют генеративным ИИ. На первом месте — подделка личности (Impersonation): Создание фальшивых личностей или создание убедительных дипфейков стало основной угрозой. Мошенники используют ИИ, чтобы убедительно изображать реальных людей и обманывать своих жертв. 2-4 места: Следом идут различные мошеннические схемы, такие как создание фейковых личностей (Sockpuppeting), фальсификация и создание фальшивых учёток. Эти способы использования ИИ также направлены на обман и манипуляцию, делая их крайне опасными в цифровом мире. Вот некоторые из самых ярких примеров злоупотребления ИИ: Фальшивые переговоры с министром В 2019 году несколько европейских политиков были обмануты дипфейк-видео, в котором их убедили, что они ведут переговоры с несуществующим министром. Этот убедительный видеозвонок использовался для получения конфиденциальной информации. Фальшивое выступление Барака Обамы В 2018 году исследователи создали дипфейк-видео с бывшим президентом США Бараком Обамой, произносящим речь, которой он никогда не говорил. Это видео было создано в рамках демонстрации угроз, связанных с технологией дипфейков. Фальшивый телефонный звонок CEO В марте 2019 года мошенники использовали ИИ, чтобы имитировать голос босса генерального директора одной немецкой компании, обманув его на перевод более $240,000 фальшивому поставщику. Мошенничество с криптовалютой В 2021 году мошенники использовали дипфейк-видео с Илоном Маском для продвижения мошеннических криптовалютных схем, что привело к значительным финансовым потерям. Так 42-летний житель Германии Себастьян стал жертвой криптомошенников, которые действовали от имени Илона Маска. Ожидая получить взамен удвоенную сумму, он перевел $560 тысяч в биткоинах. Видео с Нэнси Пелоси В мае 2019 года дипфейк-видео с Нэнси Пелоси, спикером палаты представителей США, стало вирусным, где она, якобы, запиналась на официальном мероприятии. Видео было распространено известными личностями, включая Руди Джулиани, и собрало миллионы просмотров, распространяя дезинформацию. Какие выводы? Эти примеры подчеркивают растущую угрозу злоупотребления ИИ, особенно в сложных мошеннических схемах. Хотя ИИ имеет потенциал для революции в индустриях, важно оставаться бдительными в отношении его темных сторон

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later