Искусственный интеллект помогает мошенникам – они «говорят» голосами родственников потерпевших. В полиции предупреждают, что злоумышленники научились использовать нейросети для совершения преступлений. Уже знакомая многим схема под условным названием «Ваш родственник попал в беду» вышла на новый уровень. Преступники с помощью новейших технологий научились разговаривать голосом вашего родственника или знакомого. В специальные программы загружают аудиофайлы с голосом. И чем больше – тем точнее удастся изменить голос злоумышленника. Эксперты говорят, что менять его в онлайн-формате практически невозможно, то есть мошенник не сможет поддерживать с вами диалог. Скорее всего, это будет несколько предварительно записанных и отредактированных фраз схожего содержания. Например, «нет времени объяснять, переведи деньги» или «мне очень страшно, помоги». Всего в Алтайском крае с начала 2024 года уже зафиксировали свыше 350 случаев дистанционного мошенничества, в том числе по телефону. Но ситуаций, когда с пострадавшим разговаривали якобы его близкие, ещё не возникало. Людмила Берсенёва, сотрудник пресс-сужбы ГУ МВД по Алтайскому краю рассказала, что злоумышленники прозванивают телефоны, используют голос из роликов, выложенных в социальные сети в открытый доступ, генерируют голоса близких людей жертвы, заставляют поверить в критическую ситуацию и отдать свои деньги. Несмотря на это, получив подобный звонок, сотрудники полиции рекомендуют вам положить трубку и самостоятельно перезвонить близкому человеку. Это позволит понять, что против вас используют искусственный интеллект и не стать жертвой мошенников.
Hide player controls
Hide resume playing