Ученые придумали способ защиты клонирования голоса от ИИ  Оригинал

  @ASTERA, 19:50, 22.04.2024

Рейтинг обменников
Фото с сайта www.astera.ru

Недавно организация OpenAI сообщила что разработали ИИ, который за 15 секунд может клонировать голос.

В свою очередь профессор Нинг Чжан из Университета Вашингтона в Сент-Луисе представил новый метод защиты от голосового клонирования, который эффективно противодействует возможным мошенническим действиям. Он разработал проект под названием DeFake, основанный на использовании адверсариального искусственного интеллекта для внедрения незаметных искажений в голосовые записи. Эти искажения делают клонирование голоса сложным и предотвращают их использование в мошеннических целях.

Принцип работы DeFake заключается в создании звуковых искажений, которые невидимы для человеческого слуха, но мешают искусственному интеллекту использовать записи. Такие методы защиты помогают предотвратить злоупотребление голосом других людей и обеспечивают безопасность пользователей от мошенничества.

OpenAI разработала ИИ, который за 15 секунд может клонировать голос

Источник: ferra