Apple научила свою технику с высокой точностью подделывать человеческий голос.
24.05.2023Apple выпустила краткий обзор новых функций для iOS 17, которые появятся позже в этом году. Внимание моментально приковывают две интересные функции под названием «Live Speech» и «Personal Voice». Смогут ли предприимчивые мошенники злоупотребить новой функцией?
«Live Speech» («Живая речь») — функция, направленная на повышение инклюзивности и облегчение доступа к полноценным голосовым вызовам людям, которые имеют определённые проблемы с речевым аппаратом, вызванные теми или иными заболеваниями. Live Speech позволяет во время, к примеру, рабочего созвона или личного разговора по FaceTime, вписать текст с клавиатуры в специальное поле, и он будет озвучен искусственным синтезатором речи, который громко и чётко будет передан остальным участникам разговора.
«Personal Voice» («Персональный голос») — функция, позволяющая человеку оцифровать собственный голос, и использовать его в связке с «Live Speech», чтобы на тех же аудиосозвонах говорить с другими людьми своим голосом, не произнося при этом не слова. Функция также направлена на людей, которые со временем могут потерять свой собственный голос.
«Для пользователей, которым грозит скорая потеря речи в связи с диагностированным БАС (боковой амиотрофический склероз) или другими заболеваниями, которые могут постепенно влиять на способность говорить, "Персональный голос" — это простой и безопасный способ создать искусственный голос, похожий на их собственный», — заявляют в Купертино.
По информации Apple, достаточно будет в течение 15 минут зачитывать вслух текстовые подсказки на iPhone или iPad, чтобы благодаря машинному обучению система смогла создать голос, максимально похожий на реальный голос человека.
-
Бесспорно, стремления Apple сделать жизнь своих пользователей комфортнее похвальны, однако подобная функция, по умолчанию встроенная в обычный iPhone, наверняка откроет мошенникам новые горизонты для взаимодействия с родственниками и знакомыми потенциальных жертв.
В начале апреля мы сообщали, что стремительное развитие нейросетей уже привело к участившимся мошенническим звонкам с фальшивыми голосами. Причём подобные истории зачастую шокируют своими подробностями: https://www.securitylab.ru/news/537383.php
Не до конца понятно, можно ли будет использовать новые функции в обычных телефонных разговорах по сотовой сети или воспроизводить написанный текст без звонков в принципе, но если данная система имеет слабые места, злоумышленники со временем обязательно выявят их и смогут использовать в продвинутых и крайне реалистичных схемах социальной инженерии.
Ранее мы уже писали о мерах предосторожности, чтобы не стать жертвой телефонного мошенничества с подделкой голоса: https://www.securitylab.ru/news/538033.php
Рекомендуем повторно ознакомиться с информацией, а также сохранять бдительность даже в общении с близкими людьми. Современные технологии куда коварнее, чем кажутся.
SecurityLab.ru, информационный портал о событиях в области защиты информации (Москва).