Češi, mějte se na pozoru: Umělá inteligence vám může ukrást hlas

Češi, mějte se na pozoru: Umělá inteligence vám může ukrást hlas

Pokroky v oblasti klonování hlasu umělou inteligencí představují složité dilema: její potenciál je sice v řadě oblastí obrovský, ale zároveň s sebou nese vážná rizika podvodů a dezinformací.


V posledních letech se technologie klonování hlasu na bázi umělé inteligence vyvíjela mílovými kroky. Pouhých několik sekund zvukového vzorku dokáže replikovat hlas kohokoli s ohromující věrností. To samozřejmě také vyvolává vážné obavy ohledně bezpečnosti a zneužití, protože většina platforem nabízejících tyto služby postrádá účinná ochranná opatření, která by zabránila zneužití.

Neúčinná bezpečnostní opatření

Nedávné šetření americké spotřebitelské asociace Consumer Reports analyzovalo šest předních platforem pro klonování hlasu dostupných široké veřejnosti a dospělo k závěru, že pět z nich má slabá a snadno obejitelná bezpečnostní opatření. Hodnoceny byly společnosti Descript, ElevenLabs, Lovo, PlayHT, Resemble AI a Speechify.

Související článek

Podle OpenAI by umělá inteligence mohla nahradit člověka do roku 2029
Podle OpenAI by umělá inteligence mohla nahradit člověka do roku 2029

Společnost OpenAI musí být do roku 2029 zisková, a to by znamenalo vytvořit agenty AI.

Čtyři z těchto společností (Speechify, PlayHT, Lovo a vedoucí společnost v oboru ElevenLabs) vyžadují od uživatelů pouze zaškrtnutí políčka s tvrzením, že mají právo klonovat hlas, bez jakéhokoli skutečného ověřovacího mechanismu.

Společnost Resemble AI mezitím vyžaduje, aby osoba nahrála zvuk v reálném čase, stejně se tento požadavek výzkumníkům povedlo obejít přehráním předem nahraného zvuku.

Jediná společnost, která uplatňuje o něco robustnější bezpečnostní opatření, je Descript, která vyžaduje nahrání konkrétního souhlasného prohlášení, ačkoli i to by mohlo být prolomeno pomocí některé z ostatních výše uvedených služeb pro klonování hlasu.

Zvyšující se počet případů zákonného použití

Je důležité si ujasnit, že potenciální využití klonování hlasu umělou inteligencí není výhradně negativní: existují legitimní a přínosné aplikace, jako je generování audioknih, pomoc lidem s postižením řeči a překlad obsahu do více jazyků při zachování hlasové identity mluvčího. Zneužití této technologie však představuje rostoucí hrozbu.

K jednomu z nejznámějších případů zneužití došlo ve Spojených státech během posledních primárních voleb, kdy byly vysílány robotické hovory s imitací hlasu Joea Bidena vyzývající voliče, aby se voleb neúčastnili. Strůjce tohoto podvodu dostal pokutu šest milionů dolarů (138 milionů korun) a Federální komise pro komunikace (FCC) následně zakázala automatické hovory generované umělou inteligencí.

Tato technologie posílila také telefonické podvody. V takzvaném „dědečkovském podvodu“ zločinci volají starším lidem a vydávají se za příbuzné v nouzi a žádají je o peníze v nouzi. Tento podvod je znám již delší dobu, ale americká Federální obchodní komise varovala, že podvodníci začínají využívat umělou inteligenci k tomu, aby hlasy zněly přesvědčivěji.

Zneužití se objevilo dokonce i v zábavním průmyslu. Již před dvěma lety se na sociálních sítích rozšířila píseň využívající klonované hlasy umělců Drakea a The Weeknda, která byla zveřejněna bez jejich souhlasu.

Regulace a firemní zásady

Navzdory rostoucímu zneužívání klonování hlasů umělou inteligencí považují ochránci spotřebitelů regulaci stále za nedostatečnou: americká FTC sice přijala pravidlo zakazující vydávání se za vládní a firemní identity umělou inteligencí, ale zatím se jí nepodařilo rozšířit tento zákaz na vydávání se za fyzické osoby.

Některé technologické společnosti se rozhodly omezit přístup ke svým nástrojům pro klonování hlasu z vlastního rozhodnutí, protože se obávají zneužití. Například společnost Microsoft se rozhodla nezveřejňovat svou technologii VALL-E 2 a společnost OpenAI z podobných důvodů omezila přístup ke svému motoru pro syntézu řeči.

Navzdory tomu některé společnosti nadále propagují podvodné využití této technologie: zpráva Consumer Reports odhaluje, že společnosti PlayHT a Speechify navrhují „telefonní žertíky“ jako příklad užitečnosti svých nástrojů pro klonování hlasu.

Zdroje článku:
techcrunch.com

#