Microsoft nabízí řešení, jak zastavit šíření deepfakeů na internetu

Microsoft nabízí řešení, jak zastavit šíření deepfakeů na internetu

10 hardware

Microsoft spouští nový soubor standardů pro ověřování pravosti online obsahu

Microsoft oznámila vytvoření „technických standardů“ pro hodnocení reality materiálů, které se objevují v síti. Cílem je pomoci vývojářům AI a sociálním platformám určit, zda byly obrázky nebo videa upraveny digitálními nástroji (například deepfake) a jak spolehlivé jsou metody jejich dokumentace.

Jak funguje systém ověřování
* Příklad s obrazem Rembrandta

- Vytvoří se podrobný záznam původu: místa uložení, předchozí vlastníci.

- Obraz je naskenován a z tahů štětce generována matematická podpis – „digitální otisk prstu“.

- Při vystavení v muzeu může návštěvník otevřít tato data a ověřit originalitu.

* Metody již používány

Microsoft prozkoumala 60 kombinací stávajících technik (odstranění metadat, drobné změny, cílená manipulace). Pro každý model bylo simulováno chování v různých scénářích.

Výzkumníci zjistili:

- Spolehlivé kombinace – lze je ukázat široké veřejnosti.

- Neověřené kombinace – mohou jen zkomplikovat situaci a vytvářet více zmatení.

Proč to je důležité
* Legislativa vyžaduje transparentnost AI (například „Zákon o transparentnosti AI“ v Kalifornii).

* Microsoft zatím neoznámila, zda tyto standardy použije na svých službách: Copilot, Azure, OpenAI a LinkedIn.

Standardy neurčují pravdivost obsahu; jen ukazují, zda byl materiál manipulován a odkud pochází. Pokud je průmysl přijme, vytvoření klamavého obsahu se stane výrazně obtížnější.

Stav průmyslu
Akce společnosti Stav Microsoft C2PA (2021) – sledování původu Probíhá vývoj nových prostředků Google Vodotisk pro AI‑generovaný obsah (od 2023) Aktivně implementováno
Ale kompletní sada nástrojů od Microsoftu může zůstat jen „projektem“, pokud účastníci trhu uvidí hrozbu pro své obchodní modely.

Efektivita stávajících řešení
* Studie ukázala, že pouze 30 % publikací na Instagramu, LinkedIn, Pinterest, TikToku a YouTube je správně označeno jako vytvořeno AI.

* Rychlé nasazení ověřovacích nástrojů je rizikové: selhání mohou podkopat důvěru uživatelů.

Komplexní ověřovací mechanismy jsou preferovány. Například pokud je na spolehlivém obrázku provedeno malé úpravy AI, platforma může omylem klasifikovat ho jako zcela generovaný. Integrovaný přístup snižuje pravděpodobnost falešně pozitivních výsledků.

Závěr
Microsoft nabízí strukturovanou sadu standardů pro odhalování digitální manipulace obsahu. Tyto nástroje mají zvýšit transparentnost a důvěru v online materiály, ale jejich úspěch závisí na přijetí průmyslem a spolehlivosti integrovaných ověřovacích procesů.

Komentáře (0)

Podělte se o svůj názor — prosím, buďte slušní a držte se tématu.

Zatím žádné komentáře. Zanechte komentář a podělte se o svůj názor!

Chcete-li zanechat komentář, přihlaste se.

Přihlaste se pro komentování