Телефоны: +7 (925) 0020022
+7 (903) 7697179

Apple научила свою технику с высокой точностью подделывать человеческий голос.

24.05.2023

Apple выпустила краткий обзор новых функций для iOS 17, которые появятся позже в этом году. Внимание моментально приковывают две интересные функции под названием «Live Speech» и «Personal Voice». Смогут ли предприимчивые мошенники злоупотребить новой функцией?

«Live Speech» («Живая речь») — функция, направленная на повышение инклюзивности и облегчение доступа к полноценным голосовым вызовам людям, которые имеют определённые проблемы с речевым аппаратом, вызванные теми или иными заболеваниями. Live Speech позволяет во время, к примеру, рабочего созвона или личного разговора по FaceTime, вписать текст с клавиатуры в специальное поле, и он будет озвучен искусственным синтезатором речи, который громко и чётко будет передан остальным участникам разговора.

«Personal Voice» («Персональный голос») — функция, позволяющая человеку оцифровать собственный голос, и использовать его в связке с «Live Speech», чтобы на тех же аудиосозвонах говорить с другими людьми своим голосом, не произнося при этом не слова. Функция также направлена на людей, которые со временем могут потерять свой собственный голос.

«Для пользователей, которым грозит скорая потеря речи в связи с диагностированным БАС (боковой амиотрофический склероз) или другими заболеваниями, которые могут постепенно влиять на способность говорить, "Персональный голос" — это простой и безопасный способ создать искусственный голос, похожий на их собственный», — заявляют в Купертино.

По информации Apple, достаточно будет в течение 15 минут зачитывать вслух текстовые подсказки на iPhone или iPad, чтобы благодаря машинному обучению система смогла создать голос, максимально похожий на реальный голос человека.

  • Бесспорно, стремления Apple сделать жизнь своих пользователей комфортнее похвальны, однако подобная функция, по умолчанию встроенная в обычный iPhone, наверняка откроет мошенникам новые горизонты для взаимодействия с родственниками и знакомыми потенциальных жертв.

В начале апреля мы сообщали, что стремительное развитие нейросетей уже привело к участившимся мошенническим звонкам с фальшивыми голосами. Причём подобные истории зачастую шокируют своими подробностями: https://www.securitylab.ru/news/537383.php

Не до конца понятно, можно ли будет использовать новые функции в обычных телефонных разговорах по сотовой сети или воспроизводить написанный текст без звонков в принципе, но если данная система имеет слабые места, злоумышленники со временем обязательно выявят их и смогут использовать в продвинутых и крайне реалистичных схемах социальной инженерии.

Ранее мы уже писали о мерах предосторожности, чтобы не стать жертвой телефонного мошенничества с подделкой голоса: https://www.securitylab.ru/news/538033.php

Рекомендуем повторно ознакомиться с информацией, а также сохранять бдительность даже в общении с близкими людьми. Современные технологии куда коварнее, чем кажутся.

SecurityLab.ru, информационный портал о событиях в области защиты информации (Москва).

https://www.securitylab.ru/news/538253.php