В начале 2000-х годов люди искренне удивлялись первым относительно мощным компьютерам и телефонам с черно-белыми экранами. Сегодня же многих людей не удивить даже виртуальной реальностью, смартфонами с постоянным доступом в Интернет и другими современными технологиями. Однако, нейросети порой очень даже способны вызвать восторг — сегодня они умеют не только рисовать изображения по ключевым словам, но и менять голос человека в реальном времени. На днях компания Voicemod представила технологию, которая позволяет людям говорить голосом актера Моргана Фримена, робота или астронавта. Новая возможность скоро станет доступна для использования в любом приложении, будь то компьютерная игра или чат в телеграме. Казалось бы, круто — можно смешно разыграть своих друзей. Но есть одна опасность. Угадаете, в чем она заключается?
Программа для изменения голоса
Испанская компания Voicemod является разработчиком одноименной программы для компьютеров, которая позволяет менять свой голос в реальном времени. Настроив ее для работы в играх или приложениях для общения, можно говорить голосом женщины, мужчины, зомби, инопланетянина и так далее. Для получения доступа ко всему списку звуковых списков нужно заплатить денег но, в целом, некоторым достаточно и списка из бесплатного тарифа.
Недавно в Интернете обрела большую популярность новость о том, что компания разработала новую технологию AI Voices, которая позволяет говорить голосом актера Моргана Фримена, астронавта, компьютера HAL-9000 из произведений «Космическая одиссея» Артура Кларка и так далее. Для преобразования голоса человека в другой, используется система машинного обучения, причем данные обрабатываются не в облаке, а прямо на компьютере пользователя.
Демонстрация работы AI Voices. К сожалению, версию с Морганом Фриманом найти не удалось
На данный момент технология доступна только ограниченному количеству людей. Но любой желающий может подать заявку на бета-тестирование на сайте компании — доступ к обновленной программе обещают дать в течение ближайших недель. На сайте Voicemod говорится, что утилита не нагружает процессор и способна работать даже на дорогих компьютерах. Насколько сильно нагружает компьютер новый AI Voices, неизвестно — никаких предупреждений нет, а значит, что должна работать хорошо.
Эта статья очень популярна: 5 нейросетей для создания уникальных фотографий и рисунков
Технологии мошенников
А в чем же заключается опасность этой технологии? Сама по себе программа для превращения голоса человека в голос знаменитого актера безвредна. Однако сам факт того, что даже слабый компьютер способен на такое — настораживает. Ведь в мире есть огромное количество умельцев, которые тоже способны разработать похожую технологию и использовать ее не с самыми добрыми намерениями. Например — изменять голос, представляться сотрудником банка и выманивать деньги у слишком доверчивых людей.
В 2019 году группа программистов разработала алгоритм, который может создавать аудиофайл, копируя голос человека из другой записи. Получается, что для работы технологии нужно два аудиофайла: первый содержит пример голос для копирования, а второй — фразу, которую этим голосом нужно произвести. После загрузки двух файлов в программу, она в реальном времени преобразует голос из второй записи таким образом, чтобы он был похож на первый. Получается, что потенциально опасная для безопасности людей технология уже существует. Может быть, есть варианты гораздо лучше, но мы о них просто не знаем.
Демонстрация работы алгоритма
В статье про то, кто звонит с незнакомых номеров, мы уже выяснили, что некоторые мошенники могут звонить для записи голоса человека. А теперь представьте, что эта запись была загружена в упомянутую выше программу и злоумышленники создали аудиофайл с просьбой перечислить денег на карту. И используя эта запись они вполне могут звонить родственникам и друзьям человека, с голоса которого был взят «слепок». Вероятность столкнуться с таким мошенничеством гораздо выше, чем когда на телефон звонят явные мошенники и представляются сотрудниками банка.
Современное ограбление банка
Может показаться, что это просто паранойя. Но такие случаи уже были, причем речь идет о крупном ограблении банка. В 2021 году один из управляющих кредитной организацией в ОАЭ вел переговоры с бизнесменом, который был намерен совершить крупную сделку. Чтобы сделать это, управляющему нужно было перевести на счет клиента 35 миллионов долларов. Когда транзакция была совершена, оказалось, что деньги ушли на счет грабителей, а сотрудник организации говорил не с клиентом, а его голосовым клоном. По данным Forbes, в совершении преступления участвовало около 17 человек.
В нашем дзен-канале уже 100 000 подписчиков! Станьте одним из них.
А как считаете вы, насколько опасна технология изменения голоса при помощи компьютера? Своим мнением делитесь в комментариях.