K identifikaci deepfakes lze použít techniku používanou v astronomii

K identifikaci deepfakes lze použít techniku používanou v astronomii

Porovnává oční odrazy a určuje, zda je snímek pravý, nebo jde o deepfake.

Identifikace deepfakes je stále obtížnější. Falešné snímky skutečných lidí mohou být lidským okem téměř nepostřehnutelné, ale nová technika založená na astronomii to dokáže s dostatečnou chybou. Dělá to tak, že porovnává odrazy jednotlivých očí na snímku a zejména míru asymetrie toho, co odrážejí.

Tajemství jejich očí

Podle nedávného článku v časopise Nature o práci vědců Adejumoke Owolabiové a Kevina Pimbbleta z University of Hull spočívá tajemství zjištění, zda je obraz pravdivý, nebo falešný, v očích. Na skutečných fotografiích ukazují pravé i levé oči prakticky stejný odraz. Deepfakes to však často nedokážou ocenit, takže to, co jejich oči odrážejí, prozrazuje, že se nejedná o pravou fotografii.

Všechny pohledy jsou falešné. V pravém sloupci jsou vidět vady (Kredit: Adejumoke Owolabi (CC BY 4.0)).

U deepfakes jsou však rozdíly někdy minimální a na první pohled nepostřehnutelné. Proto Owolabi používá dvoudílnou astronomickou techniku: systém CAS a Giniho index, dvě techniky pro analýzu světla na astronomických snímcích. Každé oko se porovnává, aby se odhalily chyby asymetrie a zkontrolovalo se, zda je obraz pravdivý, nebo falešný.

  • Systém CAS: kvantifikuje koncentraci, asymetrii a hladkost rozložení světla na objektu.
  • Giniho index: vypočítává nerovnoměrnost rozložení světla na snímcích galaxií.

Tato technika dokáže se 70% přesností předpovědět, zda je snímek falešný. To je užitečný pokrok v detekci deepfakes, ale stále má dostatečně velkou chybovost na to, aby se prosadil. Kromě toho musíme také ocenit, že technika je stále více schopna vytvářet realističtější snímky, které tyto asymetrie vyleští.

Deepfakes jsou na denním pořádku. Už není možné vytvářet pouze falešné obrazy skutečné osoby, ale také klonovat její hlas. To je potenciálně nebezpečné, protože to otevírá prostor pro narušení soukromí a vyvolání mezinárodního konfliktu; šéf bezpečnostního oddělení Bílého domu ostatně říká, že mu tato technologie nedává v noci spát. Zároveň se již objevují zprávy o podvodech, které klonují hlas vaší rodiny nebo přátel.