Будьте готові до того, що ваш телефон звучатиме так само, як ви, навіть коли говорите не ви.
Samsung налаштовує свого програмного помічника Bixby, щоб клонувати голос користувача для відповіді на дзвінки.
Це частина більшого руху до створення голосових клонів штучного інтелекту (ШІ), які можуть призвести до проблем автентичності.
«Найбільша тривога полягає в тому, що з будь-яким глибоким фейком важко розрізнити, що правда, а що ні», — сказав Lifewire в інтерв’ю електронною поштою Ріджул Гупта, генеральний директор компанії DeepMedia, яка розробляє платформу ШІ.
Оновлення Bixby від Samsung вже тепер дозволяє англомовним відповідати на дзвінки, вводячи повідомлення, яке Bixby перетворює на аудіо та спілкується з абонентом безпосередньо від їх імені.
Ви також можете використовувати новий Bixby Custom Voice Creator, щоб записувати різні речення, щоб Bixby аналізував і створював згенеровану ШІ копію вашого голосу та тону.
Ще одна сфера, де технологія клонування голосу може бути корисною, це коли вона використовується для створення власних синтетичних голосів для людей з вадами мовлення, сказав Гупта. «Це може допомогти їм ефективніше спілкуватися та виражати себе голосом, який є унікальним для них», — додав він.
Наприклад, багатьом пацієнтам з раком гортані видаляють гортань. Але процедура часто призводить до втрати голосу у пацієнтів. Технологія клонування голосу може покращити штучну гортань, щоб пацієнти звучали більше, як вони самі.
Незважаючи на корисні програми, клонування голосу загрожує потенційними проблемами. Мохамед Лаззуні, головний технічний директор компанії з біометричного програмного забезпечення Aware, сказав в електронному листі, що технологія клонування голосу піднімає питання конфіденційності та згоди.
Найбільшим червоним прапором є те, що з будь-яким глибоким фейком важко розрізнити, що правда, а що ні.
«Використання копії чийогось голосу без його дозволу або дослідження голосу для зловмисних дій є серйозним порушенням особистості та конфіденційності», — додав він. « Потрібно бути обережними з цією багатообіцяючою технологією; хоча вона досягла значних успіхів, вона залишається технологією на ранніх стадіях і все ще перебуває в стадії розробки. Таким чином, точність і якість не повністю дозріли.
Найважливіший недолік клонування голосу є законним.
Клонування голосу може бути використане для наклепу, обману або звинувачення людей».
Клонування голосу також стає інструментом дезінформації, доступним майже кожному.
Платформа синтезу голосу ElevenLabs дозволяє користувачам генерувати реалістичне аудіо голосу будь-якої людини, завантажуючи кілька хвилин зразків аудіо та вводячи текст, щоб він сказав.
Технологія клонування голосу вже використовується для пропаганди ненависті. У відео з останнього новинного репортажі президент Джо Байден говорив про танки. Однак фальсифікована версія відео використовує клонування голосу AI, щоб створити враження, що він виголосив промову, яка атакує трансгендерів. Він зібрав сотні тисяч переглядів у соцмережах.
«Оскільки клонування голосу є точним і переконливим, ми бачимо набагато більше, створених просто для політичної вигоди», — сказав Гупта. «Будь-хто може взяти такого політичного діяча, як президент Байден чи [Володимир] Путін, і змусити їх сказати що завгодно — це лише додає масла у вогонь дезінформації. Наприклад, почути, як світовий лідер нападає на маргіналізовану групу під час уявної промови, може призвести до справжньої непоправної... світової шкоди».
Гупта зазначив, що шахраї також використовують клонування голосу ШІ, щоб дзвонити вразливим людям і обманом змушувати їх переказувати великі суми грошей на їхні рахунки. ФБР в США вже попередило населення країни, що злочинці активно використовують клонування голосу, щоб імітувати ваш голос або голос коханої людини, який прикидається викраденим або потрапив у біду, щоб обманом позбавити вас грошей.
«Ці хакери мають здатність клонувати голос будь-якої людини за лічені хвилини, тому вони можуть звучати точно так, як член сім’ї волає про допомогу, змушуючи вас опинитися в небезпечній ситуації», — сказав Гупта. «Як хтось міг поставити під сумнів достовірність цього дзвінка, коли діпфейк настільки хороший?»
Джерело: Lifewire