Последние события показывают, что развитие технологий deepfake может иметь далекоидущие финансовые и юридические последствия. На днях одного из топ-менеджеров британской энергетической компании убедили перечислить сумму в 200000 евро некой венгерской фирме. При этом он был абсолютно уверен, что получил эту инструкцию от своего начальника.
Однако, как выяснилось впоследствии, технологически подкованные мошенники использовали технологию deepfake, чтобы сымитировать голос начальства. Программа не только скопировала сам голос человека, но и его интонации, паузы в речи и немецкий акцент. И так как этот телефонный звонок был подтвержден соответствующим письмом, причин не выполнить распоряжение начальства у подчиненного не было.
И лишь когда он позвонил отчитаться о выполнении, и это совпало со звонком от «поддельного босса», факт кражи вскрылся.
Все это показывает опасный потенциал разработок искусственного интеллекта. Особенно тех из них, что направлены на создание поддельного видео и аудио. И если созданием фейкового видео открыто не занимается ни одна из крупных компаний Силиконовой долины, то с аудио дело обстоит иначе. Даже Google в своем сервисе Duplex использует ИИ, чтобы имитировать голос человека, делая звонки от его имени.